من كانتارو كوميا

تاكاساكي (اليابان) (رويترز) – اتفق وزراء التكنولوجيا الرقمية من مجموعة الدول السبع يوم الأحد على أن مجموعة الدول المتقدمة يجب أن تتبنى لوائح “قائمة على المخاطر” للذكاء الاصطناعي، حيث يسارع البرلمانيون الأوروبيون إلى سن قانون ذكاء اصطناعي لفرض قواعد تنظيم الأدوات الناشئة مثل ChatGBT

لكن الوزراء قالوا في بيان مشترك صدر في نهاية اجتماع استمر يومين في اليابان أن اللوائح يجب أن “تحافظ أيضًا على مناخ مفتوح ومشجع” لتطوير تقنيات الذكاء الاصطناعي وأن تستند إلى القيم الديمقراطية.

ومع إقرار الوزراء بأن “أدوات السياسة التي تهدف إلى تحقيق الرؤية المشتركة والهدف المتمثل في أن يكون مجال الذكاء الاصطناعي جديرًا بالثقة قد يختلف من دولة إلى أخرى في مجموعة السبع”، فإن الاتفاقية تضع علامة فارقة تحدد كيفية قيام الدول الكبرى بتنظيم مجال الذكاء الاصطناعي. في ضوء مخاوف الخصوصية والمخاطر الأمنية.

وقالت مارجريت فيستاجر نائبة رئيس المفوضية الأوروبية لرويترز قبل الاتفاق “نتائج اجتماع مجموعة السبع تظهر أننا بالتأكيد لسنا وحدنا في هذا”.

تهتم الحكومات بشدة بشعبية أدوات الذكاء الاصطناعي التوليدية مثل ChatGBT، وهو روبوت محادثة تم تطويره بواسطة OpenAI (NASDAQ ) المدعومة من Microsoft والذي أصبح التطبيق الأسرع نموًا في التاريخ منذ إطلاقه في نوفمبر.

وقال بيان الوزراء “نعتزم إجراء مناقشات G7 في المستقبل بشأن الذكاء الاصطناعي التوليدي، ويمكن أن تشمل موضوعات مثل الحوكمة وحماية حقوق الملكية الفكرية، بما في ذلك حقوق النشر، وكذلك تعزيز الشفافية والتصدي للتضليل”. بما في ذلك التلاعب بالمعلومات من قبل القوى الأجنبية.

إلى جانب المخاوف بشأن الملكية الفكرية، أقرت دول مجموعة السبع أيضًا بالمخاطر الأمنية للذكاء الاصطناعي. وقال وزير الشؤون الرقمية الياباني تارو كونو في مؤتمر صحفي بعد الاتفاق “الذكاء الاصطناعي التوليدي … إذا تم تغذيته ببيانات مزيفة، فإنه يزود المجتمع بأخبار مزيفة وحلول معطلة”.

ستستضيف اليابان قمة مجموعة السبع في هيروشيما في أواخر مايو، حيث من المقرر أن يناقش رئيس الوزراء فوميو كيشيدا القواعد التي تحكم الذكاء الاصطناعي مع قادة العالم.

(من إعداد أميرة زهران للنشرة العربية – تحرير)