Skip to main content

تسريب من غوغل يفجّر النقاش.. هل أصبح الذكاء الاصطناعي واعيًا بالفعل؟

الجمعة 17 يونيو 2022

فجّر الصراع الداخلي حول ما إذا كانت غوغل قد بنت تقنية ذات وعي شبيه بالبشر، الذي كان قد تسرّب إلى العلن، نقاشًا حول الطموحات والمخاطر الكامنة في الذكاء الاصطناعي.

وكانت غوغل قد أوقفت أحد مهندسيها الأسبوع الماضي، بعدما قال: إن نظام الذكاء الاصطناعي "لامدا" الخاص بالشركة بدا واعيًا، وهو ادعاء رفضته غوغل رسميًا.

وفي بيانها، بدت غوغل سريعة وحازمة في التقليل من شأن ما إذا كان "لامدا" قد اكتسب الوعي. وقالت: إن هذه الأنظمة تحاكي أنواع المحادثات الموجودة عبر ملايين الجمل للتعبير عن أي موضوع خيالي. 

واعتبر بعض الخبراء أن رد غوغل هو محاولة لإغلاق النقاش حول موضوع مهم، نظرًا لما يحمله من مخاطر وتحديات لمستقبل الإنسانية.

ويُعد "لامدا" نظامًا قويًا للغاية يستخدم نماذج متقدمة ويتدرب على أكثر من تريليون ونصف تريليون كلمة؛ ليكون قادرًا على محاكاة طريقة تواصل الأشخاص في المحادثات المكتوبة.

ويرى الخبراء أن الآلة باتت قادرة على تخطي بعض الاختبارات لقياس ذكائها، لكن هذا لا يكفي.

دقة كبيرة

إلى ذلك، يشير المهندس والخبير في تكنولوجيا المعلومات أيمن قدورة إلى أن التعبير الأصح من "واعٍ" بالحديث عن الذكاء الاصطناعي هو أنه "أصبح أدق".

ويقول في حديث إلى "العربي" من الدوحة: إن المعادلة في الذكاء الاصطناعي هي كالتالي: كلما كانت البيانات والمدخلات أكثر، كلما كانت النتائج أدق وأصح.

وفيما يشير إلى أن "لامدا" هو عبارة عن نموذج لغوي لمحاكاة المحادثات، يلفت إلى أنه يعتمد باختصار على المدخلات.

ويذكر بكمية الكلمات التي تعلمها "لامدا" وتدرّب عليها، وهي تقارب تريليون ونصف التريليون كلمة، سائلًا: ماذا نتوقع منه غير أن يكون دقيقًا جدًا، لدرجة محاكاة المحادثات البشرية؟.

المصادر:
العربي
شارك القصة