قدم مركز الذكاء الاصطناعي والسياسة الرقمية شكوى رسمية إلى لجنة التجارة الفيدرالية الأمريكية (FTC) ضد شركة OpenAI، مبتكر برنامج ChatGPT الشهير. اتهم بانتهاك القسم الخامس من قانون التجارة الفيدرالي الذي يستهدف الممارسات الخادعة وغير العادلة.

وفقًا لمؤسس المركز ورئيسه، مارك روتنبرغ، “تتحمل لجنة التجارة الفيدرالية مسؤولية واضحة عن التحقيق في الممارسات التجارية غير العادلة والمضللة ومنعها. نعتقد أن لجنة التجارة الفيدرالية يجب أن تنظر بعناية في OpenAI و ChatGP (EGX) T”. و GPT-4. “

تم اتهام OpenAI بالمبالغة في قدرات ChatGPT-4

لم تكن هذه الشكوى مفاجئة، حيث أعلنت لجنة التجارة الفيدرالية (FTC) عن تحديث القسم 5 من القانون الشهر الماضي ليشمل لغة موجهة لمطوري برامج الذكاء الاصطناعي مثل OpenAI. ونصحت الوكالة المطورين بتجنب المبالغة في قدراتهم والادعاء بمستويات أداء مضللة. أو تقديم وعود بالتفوق على منتجات الذكاء الاصطناعي في الأداء مقارنة بالمنتجات التي لا تعتمد على الذكاء الاصطناعي دون إثبات كافٍ.

تأسس مركز الذكاء الاصطناعي والسياسة الرقمية في عام 2022 في إطار مؤسسة مايكل دوكاكيس للقيادة والابتكار. أسسها حاكم ولاية ماساتشوستس السابق والمرشح الديمقراطي السابق للرئاسة. تعمل الآن كمؤسسة غير ربحية مقرها في واشنطن العاصمة.

كما حذرت لجنة التجارة الفيدرالية المطورين من استكشاف المخاطر والتأثيرات المحتملة قبل إطلاق المنتجات والخدمات. وشددت على ضرورة معرفة المخاطر والتأثيرات المتوقعة لمنتجات الذكاء الاصطناعي قبل طرحها في الأسواق.

إذا حدث خطأ ما، مثل الفشل أو الحصول على نتائج محايدة، فلا يمكن إلقاء اللوم على المطورين الآخرين الذين يمكنهم استخدام منتجات تكنولوجيا الذكاء الاصطناعي لتطوير تطبيقاتهم الخاصة (عبر واجهة برمجة التطبيقات). ولا يمكن القول إن الشركة ليست مسؤولة لأن هذه التكنولوجيا “صندوق أسود” لا يمكن فهمه أو اختباره (كما قالت شركة OpenAI).

منذ عام 2017، حذرت لجنة التجارة الفيدرالية من الاستخدامات غير الأخلاقية للتقنيات الناشئة مثل الذكاء الاصطناعي و blockchain، حيث أصبح الاثنان أكثر شعبية وانتشارًا.

GPT-4 هو أحدث إصدار من ChatGPT. التي انتشرت بشكل كبير بين الناس خلال الفترة الأخيرة. أثار الكثيرون تساؤلات حول هيمنة OpenAI السريعة على الصناعة.

يدعو مركز سياسة الذكاء الرقمي والاصطناعي لجنة التجارة الفيدرالية للتحقق من أن أوبن إيه آي تمتثل لقواعد لجنة التجارة الفيدرالية.

يدعو إلى إطار أخلاقي عالمي للذكاء الاصطناعي

تأتي شكوى المركز في الوقت الذي انضم فيه العديد من أعضاء صناعة التكنولوجيا البارزين – بما في ذلك Tesla (NASDAQ ) ورئيس Twitter Elon Musk – إلى خطاب مفتوح يدعو إلى وقف تطوير أنظمة الذكاء الاصطناعي مثل منصة GPT-4 الخاصة بـ OpenAI.

“نطلب من جميع مختبرات الذكاء الاصطناعي التوقف عن تدريب أنظمة الذكاء الاصطناعي بما يتجاوز قوة GPT-4 لمدة 6 أشهر على الأقل. يجب أن يكون هذا الوقف عامًا ويمكن التحقق منه، ويشمل جميع الأطراف الرئيسية. “بسرعة. الحكومات يجب أن تتدخل وتوقف التنمية.”

مؤسسة الذكاء الاصطناعي والسياسة الرقمية ليست وحدها في دعوتها للتحقق من الوتيرة السريعة لتطوير الذكاء الاصطناعي والحاجة إلى قواعد صارمة.

أصدرت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) بيانًا يوم الخميس الماضي يدعو إلى وضع إطار أخلاقي عالمي للذكاء الاصطناعي.

في نوفمبر 2022، صوتت الدول الأعضاء في المؤتمر العام لليونسكو البالغ عددها 193 دولة على اعتماد معيار عالمي لأخلاقيات الذكاء الاصطناعي. من خلال اعتماد توصية بشأن أخلاقيات الذكاء الاصطناعي. يهدف هذا الإطار إلى حماية وتعزيز حقوق الإنسان وكرامته. كما أنه بمثابة دليل وأساس أخلاقي لتعزيز الالتزام بسيادة القانون في العالم الرقمي.

“يحتاج العالم إلى التزامات أخلاقية للتحكم في عمل الذكاء الاصطناعي. قالت المديرة العامة لليونسكو، أودري أزولاي، “هذا هو التحدي الذي نواجهه في عصرنا”.

تشير هذه المطالب المستمرة إلى الحاجة الملحة لوضع قواعد وإطار أخلاقي يضمن استخدام التقنيات الناشئة بطريقة تحترم حقوق الإنسان وكرامته، وتضمن عدم استغلالها لأغراض غير أخلاقية.

في النهاية، يثير الاهتمام المتزايد بالذكاء الاصطناعي والتقنيات الناشئة عددًا من التحديات والمخاطر التي تتطلب حوارًا مفتوحًا ومسؤولًا حول أكثر الطرق فعالية للتعامل مع هذه التقنيات في المستقبل. على الرغم من تقدم البحث والتطورات المذهلة في هذا المجال. يجب أن يكون التأكيد على الأخلاق وحماية حقوق الإنسان أولوية قصوى عند استخدام التقنيات الجديدة.