نتائج بحث الذكاء الإصطناعي هى أحدى الميزات الرئيسة التى كانت جوجل تتباهى بها فى مؤتمر مطوري Google I/O فى الاسبوع الماضى، ويا للعجب أن هذا الموضوع أصبح مصدر للسخرية على مواقع التواصل الاجتماعى بسبب نتائج بحث الذكاء الإصطناعي الكارثية والتى تعرض أجابات مضللة تمامًا.
نتائج بحث الذكاء الإصطناعي كارثية أم انها مجرد اشاعة
بعد مؤتمر مطوري Google I/O أصبح الوضع كارثى حقًا، حيث قام المستخدمين بتقديم قصارى جهدهم لاثبات أن نتائج بحث الذكاء الإصطناعي كارثية ومضللة وليس كما وصفوا مطورى جوجل فى مؤتمر الاسبوع الماضى وكانت تجارب المستخدمين حقًا مضحكة ومرعبة أيضًا، سنقوم بطرح بعض التجارب التى حدثت مع المستخدمين:
- شاركت عالمة الكمبيوتر ميلاني ميتشل مثالاً على الميزة التي تعرض في إجابة نظرية مؤامرة يمينية مفادها أن الرئيس باراك أوباما مسلم، فيما يبدو أنه محاولة فاشلة لتلخيص كتاب من منصة أبحاث مطبعة جامعة أكسفورد.
- وفي حالات أخرى، يبدو أن ملخص الذكاء الاصطناعي ينتحل نصًا من المدونات ويفشل في إزالة أو تغيير الإشارات إلى أطفال المؤلف.
- تتضمن العديد من الأمثلة الأخرى التي تمت مشاركتها على وسائل التواصل الاجتماعي قيام المنصة بإدراج حقائق أساسية خاطئة، مثل الفشل في الاعتراف بالدول في أفريقيا التي تبدأ بحرف K والإشارة إلى أن الثعابين هي ثدييات – وكلاهما نتيجتان تمكنت فوربس من تكرارهما.
- النتائج الأخرى التي انتشرت على نطاق واسع للغاية مثل تلك المتعلقة بأوباما أو وضع الغراء على البيتزا (تخيل أن يقوم طفل بقراءة مثل هذا التعليق أن الوضع كارثى حقًا).
أذا بحثت عن نتائج بحث الذكاء الإصطناعي لم تعد تعرض ملخصًا للذكاء الاصطناعي بل مقالات إخبارية تشير إلى مشكلات البحث في الذكاء الاصطناعي.
كيف يجيب الذكاء الاصطناعى على الاسئلة المطروحة عليه؟
يقوم الذكاء الاصطناعى بتحديد كل الاجابات المتعلقة بسؤالك بغض النظر أن كانت حقيقة أم مجرد نكت على مواقع التواصل الاجتماعى أم انها مجرد مثال خطأ لفكرة ما، المهم أنه سوف يقدم لك الاجابة فى النهاية لا يهم شئ أخر فى معتقده الخاص ولم يقم مطورين جوجل بحل هذه الكارثة حتى الان.
على الرغم من أن هذا هو الإطلاق الرئيسي الثاني للذكاء الاصطناعي من Google هذا العام والذي خضع للتدقيق بسبب تقديم نتائج غير دقيقة، في وقت سابق من هذا العام طرحت الشركة علنًا برنامج Gemini المنافس لمولد الصور ChatGPT وDALL-E التابع لشركة OpenAI.
ومع ذلك سرعان ما تعرضت ميزة إنشاء الصور لانتقادات بسبب إنتاج صور غير دقيقة تاريخيًا مثل الفايكنج السود والجنود النازيين المتنوعين عرقيًا والبابا. اضطرت Google إلى إصدار اعتذار وأوقفت مؤقتًا قدرة Gemini على إنشاء صور للأشخاص، وبعد الجدل أرسل بيتشاي مذكرة داخلية قال فيها إنه كان على علم بأن بعض ردود جيميني “أساءت لمستخدمينا وأظهرت تحيزًا” وأضاف: “لكي أكون واضحًا، هذا غير مقبول تمامًا وقد فهمنا الأمر بشكل خاطئ”.
اقرأ ايضًا: احتمالية وصول محرك بحث ChatGPT فى 9 مايو