الثلاثاء 23 أبريل / أبريل 2024

تسريب من غوغل يفجّر النقاش.. هل أصبح الذكاء الاصطناعي واعيًا بالفعل؟

تسريب من غوغل يفجّر النقاش.. هل أصبح الذكاء الاصطناعي واعيًا بالفعل؟

Changed

نافذة عبر "العربي" حول مشروع روبوت غوغل الذي فجّر نقاشًا حادًا بشأن تطور هذه التقنيات (الصورة: رويترز)
أوقفت شركة غوغل أحد مهندسيها الأسبوع الماضي، بعدما قال: إن نظام الذكاء الاصطناعي "لامدا" الخاص بالشركة بدا واعيًا، وهو ادعاء رفضته غوغل رسميًا.

فجّر الصراع الداخلي حول ما إذا كانت غوغل قد بنت تقنية ذات وعي شبيه بالبشر، الذي كان قد تسرّب إلى العلن، نقاشًا حول الطموحات والمخاطر الكامنة في الذكاء الاصطناعي.

وكانت غوغل قد أوقفت أحد مهندسيها الأسبوع الماضي، بعدما قال: إن نظام الذكاء الاصطناعي "لامدا" الخاص بالشركة بدا واعيًا، وهو ادعاء رفضته غوغل رسميًا.

وفي بيانها، بدت غوغل سريعة وحازمة في التقليل من شأن ما إذا كان "لامدا" قد اكتسب الوعي. وقالت: إن هذه الأنظمة تحاكي أنواع المحادثات الموجودة عبر ملايين الجمل للتعبير عن أي موضوع خيالي. 

واعتبر بعض الخبراء أن رد غوغل هو محاولة لإغلاق النقاش حول موضوع مهم، نظرًا لما يحمله من مخاطر وتحديات لمستقبل الإنسانية.

ويُعد "لامدا" نظامًا قويًا للغاية يستخدم نماذج متقدمة ويتدرب على أكثر من تريليون ونصف تريليون كلمة؛ ليكون قادرًا على محاكاة طريقة تواصل الأشخاص في المحادثات المكتوبة.

ويرى الخبراء أن الآلة باتت قادرة على تخطي بعض الاختبارات لقياس ذكائها، لكن هذا لا يكفي.

دقة كبيرة

إلى ذلك، يشير المهندس والخبير في تكنولوجيا المعلومات أيمن قدورة إلى أن التعبير الأصح من "واعٍ" بالحديث عن الذكاء الاصطناعي هو أنه "أصبح أدق".

ويقول في حديث إلى "العربي" من الدوحة: إن المعادلة في الذكاء الاصطناعي هي كالتالي: كلما كانت البيانات والمدخلات أكثر، كلما كانت النتائج أدق وأصح.

وفيما يشير إلى أن "لامدا" هو عبارة عن نموذج لغوي لمحاكاة المحادثات، يلفت إلى أنه يعتمد باختصار على المدخلات.

ويذكر بكمية الكلمات التي تعلمها "لامدا" وتدرّب عليها، وهي تقارب تريليون ونصف التريليون كلمة، سائلًا: ماذا نتوقع منه غير أن يكون دقيقًا جدًا، لدرجة محاكاة المحادثات البشرية؟.

المصادر:
العربي

شارك القصة

تابع القراءة
Close