أثار إصدار روبوت الدردشة GPT-4 AI (EGX) العديد من المخاوف والمناقشات بين قادة التكنولوجيا والعلماء في مجال الذكاء الاصطناعي. تعتبر أنظمة الذكاء الاصطناعي. مثل GPT Chat، والتي تُستخدم في العديد من تطبيقات معالجة اللغة الطبيعية مثل روبوتات المحادثة وترجمة اللغة وإنشاء المحتوى. موضوع قلق واهتمام كثير من الناس في الآونة الأخيرة.

كما طالب عدد من الشخصيات المؤثرة في عالم التكنولوجيا بوقف تحديث البرامج لمدة ستة أشهر. ويحد من تطور الذكاء الاصطناعي الذي يتفوق على GPT-4. تم إصدار الإصدار الحالي من الأداة لأول مرة في نوفمبر 2022.

يعرب علماء الذكاء الاصطناعي ورواد التكنولوجيا عن قلقهم بشأن تطوير ChatGPT

ووجهت الرسالة التي تدعو إلى وقف تطوير البرنامج اتهامات بأن نظامًا ذكيًا بهذه القوة يمكن أن يشكل مخاطر كبيرة على المجتمع والإنسانية. إذا لم يتم إيقاف تدريب الذكاء الاصطناعي بشكل فعال في غضون ستة أشهر، يجب على الحكومات التدخل وفرض تجميد.

دعت مجموعة من كبار علماء الذكاء الاصطناعي والمؤثرين شركة OpenAI إلى التوقف عن تحديث ChatGPT. وفي رسالة مفتوحة. دعا أنصار هذه الفكرة إلى وقف تدريب أنظمة الذكاء الاصطناعي التي تتفوق على GPT-4. الإصدار الحالي من البرنامج الذي يولد النصوص والأفكار الإبداعية. والتي تم إطلاقها في نوفمبر 2022. تشكل هذه الأنظمة خطرًا على المجتمع والإنسانية، وفقًا لمؤيدي الفكرة.

من بين الوجهاء الذين وقعوا هذه الرسالة. Elon Musk، مؤسس Tesla (NASDAQ ) و SpaceX، ستيف وزنياك، مؤسس Apple، و Andrew Yang، رجل الأعمال والسياسي الأمريكي. أعرب أكثر من 1700 شخص، بما في ذلك كبير المغردين إيلون ماسك ورائد الأعمال كريس لارسن، عن دعمهم للفكرة.

ودعت الرسالة الأكاديميين والمؤسسات المختلفة المعنية بالذكاء الاصطناعي إلى تعليق التدريب على هذه الأنظمة. حتى يتم تحسين الأنظمة الحالية من حيث الدقة والأمان والشفافية والمتانة والثقة. مع تسريع تطوير أنظمة الحوكمة المتعلقة بالذكاء الاصطناعي.

تشير الرسالة إلى أن أنظمة الذكاء الاصطناعي ذات القدرات المتفوقة على الذكاء البشري تشكل مخاطر كبيرة على المجتمع والإنسانية. وأن يكون التركيز على جعل الأنظمة الحالية أكثر دقة وأمانًا وشفافية وقوة وموثوقية.

رداً على تغريدة حول الالتماس، قال مؤسس شركة Tesla Elon Musk، “لن يستجيب مطورو الذكاء الاصطناعي البارزون لهذا التحذير، ولكن على الأقل تم الحديث عنه”.

رفض فكرة وقف تطوير ChatGPT

ومع ذلك، هناك من يرفض هذه المكالمة، بما في ذلك الرئيس التنفيذي لشركة Coinbase، براين أرمسترونج. وأكد في تغريدته أنه لا يوجد “خبراء” للفصل في هذه القضية، وأن العديد من أصحاب المصلحة لن يوافقوا أبدًا، وأن اللجان والبيروقراطية لن تحل شيئًا.

وقال ارمسترونغ في تغريدة “أعتبر نفسي من بين الأشخاص الذين يعتقدون أنها فكرة سيئة”. “لا يوجد” خبراء “للتحكيم في هذا الأمر. العديد من الأطراف المختلفة لن توافق. اللجان والبيروقراطية لن تحل أي شيء.”

يعارض رئيس Coinbase (NASDAQ ) هذه الرسالة، قائلاً “كما هو الحال مع العديد من التقنيات، هناك مخاطر. لكن يجب أن نستمر في المضي قدمًا لأن الخير يفوق السيئ.”

وأضاف أرمسترونغ “لا تدع الخوف يوقف التقدم، وكن حذرًا من أي شخص يحاول السيطرة على سلطة مركزية”.

يأتي هذا البيان بعد أن أجرت شركته مؤخرًا تجربة لاستخدام ChatGPT وتقنية الذكاء الاصطناعي لمعرفة قدرتها على إجراء ة لمستويات الأمان في الأكواد المشفرة المدرجة في منصة التداول.

المسؤولية الأخلاقية في مجال الذكاء الاصطناعي

ومع ذلك، فإن هذه التقنية تثير العديد من المخاوف بشأن القضايا الأخلاقية. خاصة فيما يتعلق بدور الآلات في صنع القرار الحيوي والتواصل البشري. يثير استخدام هذه الأنظمة أيضًا مخاوف بشأن الآثار المحتملة على العمالة وعدم المساواة الاجتماعية.

وقد أثيرت مخاوف بشأن استخدام هذه الأنظمة لتقديم مطالبات أداء مضللة. اتهم مركز السياسة الرقمية والذكاء الاصطناعي شركة OpenAI بانتهاك ممارسات غير عادلة ومضللة في ملف مع لجنة التجارة الفيدرالية الأمريكية.

وفقًا لمؤسس المركز ورئيسه، مارك روتنبرغ، “تتحمل FTC مسؤولية واضحة عن التحقيق في الممارسات التجارية غير العادلة والخادعة ومنعها. نعتقد أن FTC يجب أن تنظر بعناية في OpenAI و GPT Chatbot و GPT-4.” “

لم تكن هذه الشكوى مفاجئة، حيث أعلنت لجنة التجارة الفيدرالية (FTC) عن تحديث القسم 5 من القانون الشهر الماضي ليشمل لغة موجهة لمطوري برامج الذكاء الاصطناعي مثل OpenAI. نصحت الوكالة المطورين بتجنب المبالغة في قدراتهم. ومستويات أداء مضللة مزعومة. أو تقديم وعود بالتفوق على منتجات الذكاء الاصطناعي في الأداء مقارنة بالمنتجات التي لا تعتمد على الذكاء الاصطناعي دون إثبات كافٍ.

كما حذرت لجنة التجارة الفيدرالية المطورين من استكشاف المخاطر والتأثيرات المحتملة قبل إطلاق المنتجات والخدمات. وشددت على ضرورة معرفة المخاطر والتأثيرات المتوقعة للمنتجات الاصطناعية قبل طرحها في الأسواق.

مؤسسة الذكاء الاصطناعي والسياسة الرقمية ليست وحدها في دعوتها للتحقق من الوتيرة السريعة لتطوير الذكاء الاصطناعي والحاجة إلى قواعد صارمة.

أصدرت منظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو) بيانًا يوم الخميس الماضي يدعو إلى وضع إطار أخلاقي عالمي للذكاء الاصطناعي.

في نوفمبر 2022، صوتت الدول الأعضاء في المؤتمر العام لليونسكو البالغ عددها 193 دولة على اعتماد معيار عالمي لأخلاقيات الذكاء الاصطناعي. من خلال اعتماد توصية بشأن أخلاقيات الذكاء الاصطناعي. يهدف هذا الإطار إلى حماية وتعزيز حقوق الإنسان وكرامته. كما أنه بمثابة دليل وأساس أخلاقي لتعزيز الالتزام بسيادة القانون في العالم الرقمي.

قالت المديرة العامة لليونسكو، أودري أزولاي، “يحتاج العالم إلى التزامات أخلاقية للتحكم في عمل الذكاء الاصطناعي، وهذا هو التحدي الذي نواجهه في عصرنا”.

تشير هذه المطالب المستمرة إلى الحاجة الملحة لوضع قواعد وإطار أخلاقي يضمن استخدام التقنيات الناشئة بطريقة تحترم حقوق الإنسان وكرامته، وتضمن عدم استغلالها لأغراض غير أخلاقية.

بين الآمال والمخاوف المتزايدة بشأن الذكاء الاصطناعي واستخداماته

من الجدير بالذكر أن أنظمة الذكاء الاصطناعي، مثل ChatGPT، تُستخدم في العديد من تطبيقات معالجة اللغة الطبيعية مثل روبوتات المحادثة وترجمة اللغة وإنشاء المحتوى. من المتوقع حدوث زيادة كبيرة في قدرات هذه الأنظمة مع إصدار GPT-4. والتي تتميز بقدرات متقدمة في مجالات مثل التفكير المتقدم والتعليمات المعقدة والأكثر إبداعًا.

على الرغم من هذه المخاوف، هناك أيضًا أولئك الذين يعتبرون تطوير تقنية الذكاء الاصطناعي تقدمًا كبيرًا في عالم التكنولوجيا. وهم يتوقعون أن تساهم هذه التكنولوجيا في تطوير حلول جديدة وفعالة للعديد من المشكلات التي تواجه البشرية في مختلف المجالات.

يتزايد الاهتمام بتكنولوجيا الذكاء الاصطناعي في الوقت الحاضر. ويصاحب ذلك زيادة في المخاوف والتساؤلات حول ما إذا كانت هذه التكنولوجيا ستشكل تحسنًا كبيرًا في حياتنا أم أنها ستكون مصدر قلق ومخاطر على المجتمع والإنسانية. وبالتالي، يحتاج المحترفون والمؤثرون في هذا المجال إلى تطوير إطار قانوني وأخلاقي. يسمح لتقنيات الذكاء الاصطناعي بالتقدم بسرعة مع ضمان حماية المجتمع والإنسانية في نفس الوقت.

بشكل عام، يبدو أن هناك مواقف متضاربة حول استخدام الذكاء الاصطناعي وبرامجه. والمخاوف التي يمكن أن تثيرها هذه التكنولوجيا آخذة في الازدياد. ومن المتوقع أن يستمر النقاش حول هذا الموضوع في الأشهر والسنوات القادمة. حيث ستستمر تكنولوجيا الذكاء الاصطناعي في التطور.