دراسات

دراسة حديثة: الذكاء الاصطناعي يزداد قوة .. وغموضاً!

بالرغم من التقدم السريع في مجال الذكاء الاصطناعي، أظهرت دراسة حديثة من جامعة ستانفورد أن الكثير من الشركات تحيط نماذجها الذكية بالكثير من الغموض، مما يثير مخاوف بشأن انعدام المساءلة وغياب الشفافية.

في مارس من هذا العام، قدمت شركة أوبن إيه آي تفاصيل حول نموذجها للذكاء الاصطناعي تشات جي بي تي (ChatGPT)، وعلى الرغم من وفرة المعلومات في الوثائق، إلا أن الباحثين أغفلوا بعض التفاصيل الحيوية، مثل كيفية بناء النموذج أو عمليته.

وفي تقرير طويل نشره موقع “وايرد” التقني، يُظهر أن هذا الأمر لم يكن سهواً عرضياً، بل يعكس استراتيجية شركات الذكاء الاصطناعي الكبرى للحفاظ على غموض خوارزمياتها المتقدمة. يرجع ذلك جزئياً إلى مخاوف من سوء استخدام التكنولوجيا وأيضًا خوفًا من المنافسة.

أظهرت الدراسة التي أصدرها باحثون في جامعة ستانفورد هذا الأسبوع، حجم السرية المحيطة بنماذج الذكاء الاصطناعي المتقدمة، مثل GPT-4، التي تقدمها OpenAI، والتحديات المرتبطة بهذا السرية. يشير بعض باحثي الذكاء الاصطناعي إلى أن هناك تحولًا غامضًا في أساس كيفية عمل هذه النماذج.

قام فريق ستانفورد بفحص 10 أنظمة مختلفة للذكاء الاصطناعي من شركات كبيرة مثل Google وOpenAI وAmazon، بالإضافة إلى استعراض نماذج الذكاء الاصطناعي “مفتوحة المصدر”، التي يمكن تنزيلها مجانًا، وتشمل نماذج توليد الصور والفيديو.

أظهرت النتائج أنه لا يوجد نموذج حقق أكثر من 54 في المائة في مقياس الشفافية على كافة المعايير. حتى النماذج المفتوحة المصدر كانت تفتقر إلى مستوى كبير من الشفافية، حيث لا يعرف أحد بشكل دقيق عن البيانات المستخدمة في تدريبها أو كيف تم جمعها.

يُشير ناثان شتراوس، طالب الدكتوراه في جامعة ستانفورد، إلى أن الدراسة تظهر أن الذكاء الاصطناعي أصبح أكثر غموضًا حتى عندما يكون له تأثير كبير في حياتنا، مما يتعارض مع التطور الكبير الحاصل في هذا المجال. ويؤكد أن الشفافية السابقة في عرض البيانات كان لها دور في تعزيز قدرات هذه النماذج في التعرف على النصوص والأصوات والصور.

تعليقًا على الدراسة، ذكر ناثان شتراوس أنه يعكس حقيقة مؤلمة بشأن الحالة الحالية للذكاء الاصطناعي، حيث يقول: “الانفتاح السابق في عرض البيانات ساهم في الإسراع من زيادة قدرات هذه النماذج بما في ذلك التعرف على النصوص والأصوات والصور.”

وفي هذا السياق، أشارت بعض الشركات إلى أن القيام بقياس شفافية النماذج قبل إطلاقها للجمهور يعتبر مبكرًا، كما ذكر ناثان شتراوس.

من جهتها، رفضت شركة Meta (الشركة الأم لـ Facebook) التعليق على الدراسة، فيما لم ترد OpenAI على طلب التعليق.

تحذيرات تتعلق بفقدان الانفتاح والمساءلة

تتعلق القضايا المطروحة في التقرير بأهمية فتح المزيد من الشفافية في تطوير نماذج الذكاء الاصطناعي. يقول كيفن كليمان، باحث في جامعة ستانفورد، إن النماذج البارزة يمكن أن تصبح أكثر انفتاحًا دون فقدان تنافسيتها.

من جهة أخرى، يحذر البعض من أن السرية المتزايدة قد تقلل من مستوى التخصص العلمي والبحثي في مجال الذكاء الاصطناعي، مما يجعله تخصصًا محدودًا إلى حد ما يسعى فقط لتحقيق الربح.

وفي الوقت الحالي، يبحث خبراء الذكاء الاصطناعي في اتجاهات المستقبل وكيفية تأثير هذه التطورات على هذا المجال الحيوي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى