OpenAI تطلق لجنة سلامة وأمن، ما الحاجة إليه؟ أعلنت شركة OpenAI في منشور على مدونتها عن تحويل لجنة السلامة والأمن الخاصة بها إلى “لجنة استشارية مستقلة” تتمتع بسلطة تأخير إطلاق نماذجها بسبب المخاوف الأمنية، جاءت هذه التوصية من اللجنة بعد مراجعة استمرت 90 يومًا للعمليات والإجراءات الأمنية في OpenAI.
OpenAI تطلق لجنة سلامة وأمن
وستتلقى اللجنة، التي يرأسها زيكو كولتر وتضم آدم دي أنجيلو، وبول ناكاسون، ونيكول سيليغمان، “إحاطة من قيادة الشركة بشأن التقييمات الأمنية لإصدارات النماذج الرئيسية، وستمارس، مع المجلس بأكمله، الإشراف على إطلاق النماذج، بما في ذلك سلطة تأخير الإصدار حتى يتم معالجة المخاوف الأمنية”، وفقًا لـ OpenAI، كما سيستقبل مجلس إدارة OpenAI بأكمله “إحاطات دورية” بشأن “قضايا السلامة والأمن”.
ويذكر أن أعضاء لجنة السلامة في OpenAI هم أيضًا أعضاء مجلس الإدارة الأوسع للشركة، لذا فمن غير الواضح تمامًا مدى استقلالية اللجنة فعليًا أو كيفية هيكلة هذه الاستقلالية، (كان الرئيس التنفيذي سام ألتمَن سابقًا في اللجنة، لكنه لم يعد كذلك).
من خلال إنشاء مجلس سلامة مستقل، يبدو أن OpenAI تتبع نهجًا مشابهًا إلى حد ما لمجلس الإشراف على Meta، الذي يراجع بعض قرارات سياسة المحتوى في Meta ويمكنه اتخاذ قرارات يجب على الشركة اتباعها، ولا يوجد أي من أعضاء مجلس الإشراف في مجلس إدارة الشركة، كما ساعدت مراجعة لجنة السلامة والأمن في OpenAI في “فرص تعاون وتبادل المعلومات الإضافية لتطوير أمن صناعة الذكاء الاصطناعي”، وتقول الشركة أيضًا إنها ستبحث عن “طرق أكثر لمشاركة وشرح عملنا في مجال السلامة” و”فرص أكثر لاختبار أنظمتنا بشكل مستقل”.
لكن أنا لا أفهم جيدًا ما الحاجة إلى أن OpenAI تطلق لجنة سلامة وأمن، ما هو الشئ الذى تريد أن تحمى المستخدمين منه، أو يجب أن أقول ما الحاجة إلى التى تمنع المستخدمين من الوصول إليه تجعلها ترغب فى إنشاء لجنة سلامة خاصة، الكثير من الاسئلة التى تدور فى عقلى الآن والتى لا أعرف أجوبتها، ولكنها تقلقنى، فما رأيك أيها القارئ.
اقرأ ايضًا: Hello Wonder | تنشئ متصفح يعمل بالذكاء الاصطناعي للأطفال