الاء عماد 2024-10-16 7 دقائق قراءة

اخطار الذكاء الاصطناعي | هل نقترب من النهاية؟

حجم النص

أهلاً بك في المستقبل، مستقبلٍ قد يكون أكثر إشراقاً مما نتصور، وقد يكون أكثر ظلاماً مما نخشى، هل تخيلت يوماً أن الآلات التي صممناها لخدمتنا قد تتحول إلى تهديد وجودي؟ مع تطور الذكاء الاصطناعي بسرعة مذهلة، أصبح هذا السؤال أكثر إلحاحاً من أي وقت مضى، اخطار الذكاء الاصطناعي تلوح في الأفق، وتطرح تساؤلات عميقة حول مستقبل البشرية، هل نحن على وشك الاتجاه إلى النهاية بخطوات واسعة؟

اخطار الذكاء الاصطناعي

اخطار الذكاء الاصطناعي

الذكاء الاصطناعي يطرح بعض المخاطر الكبيرة، من إزاحة الوظائف إلى المخاوف الأمنية والخصوصية، وتشجيع الوعي بالقضايا يساعدنا في المشاركة في المحادثات حول الآثار القانونية والأخلاقية والاجتماعية للذكاء الاصطناعي، فيما يلي أكبر اخطار الذكاء الاصطناعي:

التحيز والتمييز

يمكن لأنظمة الذكاء الاصطناعي أن تكرر أو تكبر التحيزات الاجتماعية عن غير قصد بسبب البيانات التدريبية المتحيزة أو التصميم الخوارزمي التى يضعها البشر، لتقليل التمييز وضمان الإنصاف، من المهم الاستثمار في تطوير خوارزميات غير متحيزة ومجموعات بيانات تدريب متنوعة، وهذا شئ يمكن أن تلاحظه عند البحث فى الاخبار السياسية، فتجد تحيز أو يفضل عدم الاجابة على الاطلاق، فلما هذا لا نعلم ولكن البشر القائمين على تطوير الذكاء الاصطناعي يتجاهلون هذا الجزء دائمًاوهذا من اخطار الذكاء الاصطناعي، تخيل أن كان طفل يبحث عن شئ ما وصدرت له هذه النتائج المتحيزة فما هى النتيجة؟

مخاوف الخصوصية

من اخطار الذكاء الاصطناعي المرعبة، هى عندما تقوم تقنيات الذكاء الاصطناعي غالبًا بجمع وتحليل كميات كبيرة من البيانات الشخصية، مما يثير قضايا تتعلق بخصوصية البيانات وأمانها، للتخفيف من مخاطر الخصوصية، يجب أن ندعو إلى اللوائح الصارمة لحماية البيانات وممارسات التعامل الآمن بالبيانات.

قد يهمك ايضًا:

إخفاء المعلومات والتحكم في الذكاء الاصطناعي

يعتبر الذكاء الاصطناعي وتقنيات التعلم العميق معقدة للغاية، حتى بالنسبة للخبراء الذين يعملون بشكل مباشر مع هذه التقنيات، وهذا يؤدي إلى عدم الشفافية في كيفية وكيفية وصول الذكاء الاصطناعي إلى استنتاجاته، مما يخلق عدم توضيح للبيانات التي تستخدمها خوارزميات الذكاء الاصطناعي، أو لماذا قد تتخذ قرارات متحيزة أو غير آمنة، وقد أدت هذه المخاوف إلى استخدام الذكاء الاصطناعي المفسّر، ولكن لا يزال هناك طريق طويل قبل أن تصبح أنظمة الذكاء الاصطناعي الشفافة ممارسة شائعة.

اخطار الذكاء الاصطناعي

ومما يزيد الطين بلة، فإن شركات الذكاء الاصطناعي تواصل التكتم على منتجاتها، وقد اتهم موظفون سابقون في OpenAI وGoogle DeepMind كلا الشركتين بإخفاء اخطار الذكاء الاصطناعى المحتملة الخاصة بها، ويترك هذا الغموض الجمهور العام غير مدرك للمخاطر المحتملة ويجعل من الصعب على صانعي القوانين اتخاذ تدابير استباقية لضمان تطوير الذكاء الاصطناعي بشكل مسؤول.

فقدان الوظائف بسبب أتمتة الذكاء الاصطناعي

تعتبر أتمتة الوظائف المدعومة بالذكاء الاصطناعي مشكلة ملحة مع اعتماد هذه التقنية في صناعات مثل التسويق والتصنيع والرعاية الصحية، بحلول عام 2030، يمكن أتمتة المهام التي تمثل ما يصل إلى 30 في المائة من الساعات التي يتم العمل فيها حاليًا، هل يمكنك أن تتخيل أنه يمكن فقدان 300 مليون وظيفة بدوام كامل بسبب أتمتة الذكاء الاصطناعي، وهذه من أبرز اخطار الذكاء الاصطناعي التى تهدد البشر فأننا يتم استبادلنا علنًا.

مع زيادة ذكاء روبوتات الذكاء الاصطناعي ومرونتها، ستتطلب نفس المهام عددًا أقل من البشربالطبع، وفي حين أن الذكاء الاصطناعي من المتوقع أن يخلق 97 مليون وظيفة جديدة بحلول عام 2025، فإن العديد من الموظفين لن يمتلكوا المهارات اللازمة لهذه الأدوار التقنية وقد يتم تركهم وراء الركب إذا لم تقم الشركات بتطوير مهارات قوتها العاملة، وفى أثناء تطوير مهارات القوة العاملة يتم تطوير الذكاء الاصطناعي، لا أعلم أشعر اننا ندور فى عجلة مفرغة ونصل لنفس النهاية فى كل مرة.

التلاعب الاجتماعي من خلال خوارزميات الذكاء الاصطناعي

يعد التلاعب الاجتماعي أيضًا من اخطار الذكاء الاصطناعي، أصبح هذا الخوف حقيقة واقعة حيث يعتمد السياسيون على المنصات للترويج لنقاط نظرهم، مع مثال واحد هو فرديناند ماركوس جونيور، الذي استخدم جيشًا من الترويج على تيك توك لالتقاط أصوات الشباب الفلبينيين خلال انتخابات الفلبين عام 2022.

تيك توك، التي هي مجرد مثال واحد على منصة وسائط اجتماعية تعتمد على خوارزميات الذكاء الاصطناعي، تمتلئ تغذية المستخدم بالمحتوى المرتبط بالوسائط السابقة التي شاهدها على المنصة، تركز انتقادات التطبيق على هذه العملية وعلى فشل الخوارزمية في تصفية المحتوى الضار وغير الدقيق، مما يثير مخاوف بشأن قدرة تيك توك على حماية مستخدميها من المعلومات المضللة، أصبحت وسائل الإعلام والأخبار عبر الإنترنت أكثر غموضًا في ظل الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي، ومغيرات الصوت بالذكاء الاصطناعي، تجعل هذه التقنيات من السهل إنشاء صور أو مقاطع فيديو أو مقاطع صوتية واقعية أو استبدال صورة شخصية واحدة بأخرى في صورة أو مقطع فيديو موجود.

قد يهمك ايضًا: إليك كل ما تريد معرفته عن Microsoft Copilot الذكاء الاصطناعى من Microsoft

ونتيجة لذلك، أصبح لدى الجهات الفاعلة السيئة قناة أخرى لمشاركة المعلومات الخاطئة ودعاية الحرب، مما يخلق سيناريو مرعب حيث يمكن أن يكون من المستحيل تقريبًا التمييز بين الأخبار الموثوقة والخبر الخاطئ، الامر مرعب حقًا لمجرد التفكير فيه، اخطار الذكاء الاصطناعي لم تتوقف عند هذا الامر على الاطلاق.

المراقبة الاجتماعية باستخدام تقنية الذكاء الاصطناعي

بالإضافة إلى تهديدها الأكثر وجودية التى يسببها اخطار الذكاء الاصطناعي، وهى المراقبة الاجتماعية فعلًا كما قرأت، مثال رئيسي على ذلك من منا لم يرى فيديوهات الصينية التى تنتشر فى الاوان الاخيرة على الانترنت، حيث تستخدم الصين تقنية التعرف على الوجه في المكاتب والمدارس والأماكن الأخرى، بالإضافة إلى تتبع تحركات الشخص، قد تكون الحكومة الصينية قادرة على جمع بيانات كافية لمراقبة أنشطة الشخص وعلاقاته ووجهات نظره السياسية.

اخطار الذكاء الاصطناعي

مثال آخر هو اعتماد أقسام الشرطة الأمريكية على خوارزميات التنبؤ بالجريمة للتنبؤ بحدوث الجرائم، تكمن المشكلة في أن هذه الخوارزميات تتأثر بمعدلات الاعتقال، التي تؤثر بشكل غير متناسب على المجتمعات ذات البشرة الداكنة، ثم تضع أقسام الشرطة نفسها على هذه المجتمعات، مما يؤدي إلى المراقبة الزائدة والأسئلة حول ما إذا كانت الديمقراطيات التي تدعي أنها ذاتية الحكم يمكنها مقاومة تحويل الذكاء الاصطناعي إلى سلاح استبدادي، فكما وصفنا فى الاعلى الامر ليس جيدًا على الاطلاق وهناك الكثير من التحييز، وهذا من اخطار الذكاء الاصطناعي القاتلة.

عدم المساواة الاجتماعية الاقتصادية من اخطار الذكاء الاصطناعي

إذا رفضت الشركات الاعتراف بالتحيزات المتأصلة في خوارزميات الذكاء الاصطناعي، فقد تعرض مبادرات التنوع والشمول والإنصاف الخاصة بها للخطر من خلال التوظيف المدعوم بالذكاء الاصطناعي، فالفكرة القائلة بأن الذكاء الاصطناعي يمكن أن يقيس سمات المرشح من خلال تحليلات الوجه والغناء لا تزال مشوهة بالتحيزات العرقية، مما يعيد إنتاج ممارسات التوظيف التمييزية نفسها التي تدعي الشركات أنها تعمل على القضاء عليها.

وتعد زيادة عدم المساواة الاجتماعية الاقتصادية التي أشعلها فقدان الوظائف بسبب الذكاء الاصطناعي سببًا آخر للقلق، حيث يكشف عن التحيزات الطبقية في كيفية تطبيق الذكاء الاصطناعي، فقد شهد العمال الذين يؤدون مهامًا أكثر روتينية وأكثر تكرارًا انخفاضًا في الأجور يصل إلى 70 في المائة بسبب الأتمتة، في حين ظل العمال المكتبيون وموظفو المكاتب إلى حد كبير دون تغيير في المراحل المبكرة للذكاء الاصطناعي، ومع ذلك، فإن الزيادة في استخدام الذكاء الاصطناعي التوليدي تؤثر بالفعل على الوظائف المكتبية، مما يؤدي إلى مجموعة واسعة من الأدوار التي قد تكون أكثر عرضة لفقدان الأجور أو الوظائف من غيرها.

ضعف الأخلاق والنية الحسنة بسبب الذكاء الاصطناعي

بالإضافة إلى التقنيين والصحفيين والشخصيات السياسية، ويعطي الارتفاع السريع لأدوات الذكاء الاصطناعي التوليدي المزيد من المصداقية لهذه المخاوف، فقد استخدم العديد من المستخدمين هذه التقنية للخروج من المهام الكتابية، مما يهدد النزاهة الأكاديمية والإبداع، بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي المتحيز لتحديد ما إذا كان الفرد مناسبًا لوظيفة أو رهن أو مساعدة اجتماعية أو لجوء سياسي، مما يؤدي إلى احتمالية حدوث ظلم وتمييز، اخطار الذكاء الاصطناعي تتزايد كل يوم مالم يتم السيطرة عليه.

كيفية معالجة اخطار الذكاء الاصطناعي

يعتبر الذكاء الاصطناعي من أبرز التقنيات التي تشهد تطوراً متسارعاً، والتي تحمل في طياتها إمكانات هائلة لتحسين حياتنا، ومع ذلك، فإن هذه التقنية تحمل أيضًا مخاطر محتملة يجب التعامل معها بحذر، وكما عرضنا فى الاعلى اخطار الذكاء الاصطناعي، فهيا بنا لكى نجد علاج لهذ المخاطر:

  • يجب الاستثمار في التعليم والتدريب لتزويد القوى العاملة بالمهارات اللازمة للعمل في الاقتصاد القائم على الذكاء الاصطناعي.
  • يجب وضع لوائح وقوانين واضحة لتنظيم استخدام الذكاء الاصطناعي وضمان استخدامه بشكل آمن وأخلاقي.
  • يجب أن تكون أنظمة الذكاء الاصطناعي شفافة وقابلة للمساءلة، بحيث يمكن فهم كيفية اتخاذها للقرارات وتحديد المسؤولية عن أي أخطاء.
  • يجب أن يتم تصميم وتطوير أنظمة الذكاء الاصطناعي مع مراعاة القيم الأخلاقية والمصلحة العامة.
  • يجب أن يكون هناك تعاون دولي لتطوير معايير مشتركة لتنظيم الذكاء الاصطناعي وضمان استخدامه السلمي.
  • يجب أنشاء ذكاء الاصطناعي خالى من العنصرية والتمييز بين البشر، وهذا سيبدأ بالتركيز على المساواة بين كافة البشر.

اخطار الذكاء الاصطناعي

فى الختام يجب أن نقول إن اخطار الذكاء الاصطناعي تتجاوز حدود التكنولوجيا لتصل إلى صميم وجودنا كبشر، من الضروري أن ندرك أن الذكاء الاصطناعي ليس سوى أداة، وقيمتها تتوقف على كيفية استخدامنا لها، علينا أن نكون حذرين عند تطوير واستخدام هذه التكنولوجيا، وأن نضع قيودًا أخلاقية وقانونية تحمي المجتمع من مخاطر الذكاء الاصطناعي، إن المسؤولية تقع على عاتقنا جميعًا، من الباحثين والمطورين إلى صناع القرار والمستخدمين العاديين، للعمل معًا من أجل مستقبل آمن ومزدهر.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *