كشفت حكومة المملكة المتحدة عن ورقة شاملة تتناول القدرات والمخاطر المرتبطة بالذكاء الاصطناعي الحدودي.
تحدث رئيس وزراء المملكة المتحدة ريشي سوناك اليوم عن المسؤولية العالمية لمواجهة المخاطر التي أبرزها التقرير وتسخير إمكانات الذكاء الاصطناعي. وشدد سوناك على الحاجة إلى حوار صادق حول الطبيعة المزدوجة للذكاء الاصطناعي: تقديم فرص غير مسبوقة، في حين يشكل أيضًا مخاطر كبيرة.
"سوف يجلب الذكاء الاصطناعي معارف جديدة، وفرصًا جديدة للنمو الاقتصادي، وتطورات جديدة في القدرات البشرية، وفرصة لحل المشكلات التي كنا نظنها ذات يوم خارج نطاق قدراتنا. قال سوناك: “لكنه يجلب أيضًا مخاطر جديدة ومخاوف جديدة”.
"لذا، فإن الشيء المسؤول الذي يجب علي فعله هو معالجة هذه المخاوف بشكل مباشر، مما يمنحك راحة البال بأننا سنحافظ على سلامتك مع التأكد من حصولك أنت وأطفالك على كل الفرص لمستقبل أفضل يمكن أن يحققه الذكاء الاصطناعي. .
"إن القيام بالشيء الصحيح، وليس الشيء السهل، يعني أن نكون صادقين مع الناس بشأن المخاطر الناجمة عن هذه التقنيات."
ويتناول التقرير التطورات السريعة في مجال الذكاء الاصطناعي الحدودي، بالاعتماد على مصادر عديدة. وهو يسلط الضوء على وجهات النظر المتنوعة داخل المجتمعات العلمية والخبرة والعالمية فيما يتعلق بالمخاطر المرتبطة بالتطور السريع لتكنولوجيا الذكاء الاصطناعي.
يتكون المنشور من ثلاثة أقسام رئيسية:
القدرات والمخاطر الناشئة عن الذكاء الاصطناعي الحدودي: يقدم هذا القسم ورقة مناقشة تدعو إلى إجراء المزيد من الأبحاث حول مخاطر الذكاء الاصطناعي. وهو يحدد الوضع الحالي لقدرات الذكاء الاصطناعي الحدودية، والتحسينات المستقبلية المحتملة، والمخاطر المرتبطة بها، بما في ذلك الأضرار المجتمعية، وسوء الاستخدام، وفقدان السيطرة.
مخاطر السلامة والأمن للذكاء الاصطناعي التوليدي حتى عام 2025: بالاعتماد على التقييمات الاستخباراتية، يوضح هذا التقرير الفوائد العالمية المحتملة للذكاء الاصطناعي التوليدي مع تسليط الضوء على المخاطر المتزايدة على السلامة والأمن. وهو يؤكد على تعزيز قدرات الجهات الفاعلة في مجال التهديد وفعالية الهجمات بسبب التطوير التوليدي للذكاء الاصطناعي.
المخاطر المستقبلية للذكاء الاصطناعي الحدودي: يستكشف هذا التقرير، الذي أعده المكتب الحكومي للعلوم، أوجه عدم اليقين في تطوير الذكاء الاصطناعي الحدودي، ومخاطر النظام المستقبلية، والسيناريوهات المحتملة للذكاء الاصطناعي حتى عام 2030.
ويركز التقرير - المستند إلى معلومات رفعت عنها السرية من وكالات الاستخبارات - على الذكاء الاصطناعي التوليدي، وهي التكنولوجيا التي تقوم عليها روبوتات الدردشة الشهيرة وبرامج توليد الصور. ويتنبأ بمستقبل قد يستغل فيه الإرهابيون الذكاء الاصطناعي للتخطيط لهجمات بيولوجية أو كيميائية، مما يثير مخاوف جدية بشأن الأمن العالمي.
علق Sjuul van der Leeuw، الرئيس التنفيذي لشركة Deployteq : "من الجيد أن نرى الحكومة تتخذ نهجًا جديًا، وتقدم تقريرًا قبل قمة السلامة الأسبوع المقبل ولكن لا بد من بذل المزيد من الجهد.
"هناك حاجة إلى بذل جهد مستمر لمعالجة مخاطر الذكاء الاصطناعي، ونأمل أن تجلب القمة الوضوح الذي تشتد الحاجة إليه، مما يسمح للشركات والمسوقين بالاستمتاع بالفوائد التي توفرها هذه القطعة التكنولوجية الناشئة، دون القلق من ردود الفعل العكسية."
ويسلط التقرير الضوء على أنه يمكن استخدام الذكاء الاصطناعي التوليدي لجمع المعرفة حول الهجمات الجسدية التي تشنها الجهات العنيفة من غير الدول، بما في ذلك صنع الأسلحة الكيميائية والبيولوجية والإشعاعية.
وعلى الرغم من أن الشركات تعمل على تنفيذ الضمانات، إلا أن التقرير يؤكد على تباين فعالية هذه التدابير. وتتضاءل العقبات التي تحول دون الحصول على المعرفة والمواد الخام والمعدات اللازمة لمثل هذه الهجمات، مع احتمالية تسريع الذكاء الاصطناعي لهذه العملية.
بالإضافة إلى ذلك، يحذر التقرير من احتمالية أن تصبح الهجمات السيبرانية المعتمدة على الذكاء الاصطناعي أسرع وأكثر فعالية وعلى نطاق أوسع بحلول عام 2025. ومن الممكن أن يساعد الذكاء الاصطناعي المتسللين في محاكاة اللغة الرسمية، والتغلب على التحديات السابقة التي تمت مواجهتها في هذا المجال.
ومع ذلك، شكك بعض الخبراء في نهج حكومة المملكة المتحدة.
قال راشيك بارمار، الرئيس التنفيذي لـ BCS، معهد تشارترد لتكنولوجيا المعلومات : “وقع أكثر من 1300 من التقنيين والقادة رسالتنا المفتوحة التي وصفنا فيها الذكاء الاصطناعي بأنه قوة من أجل الخير وليس تهديدًا وجوديًا للإنسانية.
"لن يكبر الذكاء الاصطناعي مثل The Terminator. إذا اتخذنا الخطوات المناسبة، فسيكون مساعد طيار موثوقًا به منذ أيامنا الأولى في المدرسة وحتى تقاعدنا.
وستهدف قمة سلامة الذكاء الاصطناعي إلى تعزيز النقاش الصحي حول كيفية معالجة مخاطر الذكاء الاصطناعي الحدودية، بما في ذلك إساءة الاستخدام من قبل الجهات الفاعلة غير الحكومية في الهجمات السيبرانية أو تصميم الأسلحة البيولوجية والمخاوف المتعلقة بأنظمة الذكاء الاصطناعي التي تعمل بشكل مستقل بما يتعارض مع النوايا البشرية. وستمتد المناقشات في القمة أيضًا إلى التأثيرات المجتمعية الأوسع، مثل تعطيل الانتخابات، والتحيز، والجريمة، والسلامة عبر الإنترنت.
وعلقت كلير تراشيه، الرئيس التنفيذي لشركة تراتشيت ، قائلة: "إن الطبيعة السريعة النمو للذكاء الاصطناعي جعلت من الصعب على الحكومات تحقيق التوازن بين إنشاء تنظيم فعال يحمي مصالح الشركات والمستهلكين دون خنق فرص الاستثمار. على الرغم من وجود بعض أشكال إدارة المخاطر والتقارير المختلفة الصادرة الآن، إلا أن أياً منها لا يمثل نهجاً منسقاً حقيقياً.
"إن التزام حكومة المملكة المتحدة بسلامة الذكاء الاصطناعي أمر يستحق الثناء، ولكن الانتقادات التي أحاطت بالقمة هي بمثابة تذكير بأهمية اتباع نهج متوازن وبناء ومستقبلي لتنظيم الذكاء الاصطناعي."
إذا كان تقرير حكومة المملكة المتحدة يستند إلى أي شيء، فإن الحاجة إلى التعاون حول اتخاذ تدابير متناسبة ولكن صارمة لإدارة المخاطر التي يشكلها الذكاء الاصطناعي أصبحت أكثر إلحاحًا من أي وقت مضى.