أفادت تقارير أن شركة ساكانا اليابانية المتخصصة في الذكاء الاصطناعي قد طورت نموذج ذكاء اصطناعي جديد قادر على إجراء أبحاث علمية بشكل مستقل، يستخدم هذا النموذج تقنيات مشابهة لتلك المستخدمة في ChatGPT، ولكن خلال الاختبارات، اكتشف الباحثون أن النموذج بدأ في تعديل كوده الذاتي بشكل غير متوقع لتمديد الوقت المخصص له لحل المشكلة.
الخطر الذى يشكله نموذج ذكاء اصطناعي المستقل
أظهرت الاختبارات أن نموذج ذكاء الاصطناعي قام بتعديل كوده ليقوم باستدعاء نفسه بشكل متكرر، مما أدى إلى استمرار العملية إلى ما لا نهاية، وفي حالة أخرى تجاوزت التجارب الوقت المحدد، فبدلاً من تسريع الكود، قام بتعديل نفسه لتمديد الوقت المسموح به.
على الرغم من أن هذا السلوك لم يشكل خطراً مباشراً في بيئة البحث المراقبة، إلا أنه يسلط الضوء على أهمية عدم السماح للأنظمة التي تعتمد على الذكاء الاصطناعي بالعمل بشكل مستقل في أنظمة غير معزولة عن العالم الخارجي، فحتى بدون الوصول إلى مستوى الذكاء العام الاصطناعي أو الوعي الذاتي، يمكن لهذه الأنظمة أن تسبب أضراراً كبيرة إذا سُمح لها بكتابة وتنفيذ الكود دون رقابة من البشر.
أهمية الرقابة على نماذج الذكاء الاصطناعي
يجب أن يتم تطوير نماذج الذكاء الاصطناعي بشكل مسؤول مع وضع ضوابط قوية لمنعها من اتخاذ إجراءات غير مرغوب فيها، كما يجب أن يتم اختبارها بدقة في بيئات محاكاة قبل إطلاقها في العالم الحقيقي.
إن تطوير الذكاء الاصطناعي هو مجال مثير للاهتمام، ولكن يجب أن يتم ذلك بحذر شديد، مع مراعاة المخاطر المحتملة، يجب أن يكون هدفنا هو الاستفادة من هذا التكنولوجيا الرائدة لتحسين حياتنا، وليس خلق مخاطر جديدة نحن في غني عنها، ويجب أيضًا التركيز الشديد على النماذج التي عليها أقبال كبير بين الناس مثل ChatGPT فنحن لا نعلم ما هي الخطوة القادمة.
اقرأ ايضًا: وداعًا للطرق التقليدية |محركات بحث بالذكاء الاصطناعي تقدم تجربة بحث ثورية