الجمهورية توداي
جريدة شبابية مستقلة

ميتا تكشف عن معايير جديدة لتقييم مخاطر الذكاء الاصطناعي

ميتا تكشف معايير الذكاء الاصطناعي

كتبت إسراء أحمد

 

 

أعلنت شركة ميتا عن إطلاق إطار عمل جديد يُسمى Frontier AI Framework، والذي يهدف إلى تحديد المعايير التي ستعتمدها الشركة في تقييم مخاطر الأنظمة المتقدمة للذكاء الاصطناعي. الهدف من هذا الإطار هو ضمان عدم إطلاق أنظمة قد تكون شديدة الخطورة أو تؤدي إلى نتائج كارثية في المستقبل.

الميزة الرئيسية في الإطار الجديد هي تصنيف الأنظمة إلى نوعين رئيسيين:

1. الأنظمة عالية الخطورة: التي يمكن أن تسهم في تنفيذ هجمات إلكترونية أو كيمياوية، مما يهدد الأمن العام.

 

2. الأنظمة ذات المخاطر الحرجة: التي قد تؤدي إلى نتائج لا يمكن التنبؤ بها أو تكون كارثية، مثل اختراق الأنظمة الأمنية أو تطوير أسلحة بيولوجية.

 

في حال تم تصنيف أحد الأنظمة ضمن الفئات عالية الخطورة، ستقوم ميتا بتقييد الوصول إليها داخليًا أو حتى إيقاف تطويرها بالكامل إذا كانت تهدد الأمن بشكل كبير. وتستند ميتا في هذا القرار إلى مراجعات داخلية ومداخلات من الباحثين، بدلاً من استخدام اختبارات علمية موحدة، مما يثير بعض الجدل حول طريقة تقييم المخاطر.

هذه الخطوة تأتي في وقت حساس بالنسبة للشركة، بعد أن تعرضت لانتقادات بسبب نشر أنظمة مثل Llama التي تم استخدامها بشكل واسع، بما في ذلك من جهات غير مرغوب فيها. ويتزامن هذا مع منافسة متزايدة بينها وبين شركات أخرى مثل OpenAI التي تتبنى نهجًا أكثر تحفظًا في إطلاق تقنياتها.

 

 

ميتا تكشف معايير الذكاء الاصطناعي

اقرا ايضا : “التربية والتعليم تتيح تقديم تظلمات نتيجة أولى وثانية ثانوي 2025 إلكترونيًا”

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.