الجمعة، 28 يوليو 2023

عمالقة الذكاء الاصطناعي يجتمعون لتطوير معايير للسلامة قبل صانعي السياسات

 

أطلقت أربع شركات رائدة في مجال الذكاء الاصطناعي مجموعة جديدة يوم الأربعاء بهدف تحديد أفضل ممارسات السلامة وتعزيز استخدام التقنية لمواجهة التحديات المجتمعية الكبيرة. تؤكد المجموعة ضرورة أهمية أن يستمر القطاع في مراقبة نفسه حتى يتمكن صانعو السياسات من وضع قواعد جديدة.


المجموعة تضم Google و Microsoft و OpenAI و Anthropic، وتهدف منتدى نموذج الحدود الجديد إلى تحقيق أربعة أهداف رئيسية. الهدف الأول هو تعزيز التطوير المسؤول لنماذج الحدود وتحسين أبحاث السلامة في مجال الذكاء الاصطناعي وتقليل المخاطر وتمكين التقييمات المستقلة والموحدة للقدرات والسلامة.


الهدف الثاني يهدف إلى تحديد أفضل الممارسات للتطوير المسؤول ونشر نماذج الحدود ومساعدة الجمهور على فهم طبيعة التقنية وقدراتها وحدودها وتأثيرها.


الهدف الثالث يركز على التعاون مع صانعي السياسات والأكاديميين والمجتمع المدني والشركات للتبادل المعرفي حول مخاطر الثقة والسلامة.


أما الهدف الرابع، فهو دعم تطوير التطبيقات التي تساعد في مواجهة أهم التحديات المجتمعية، مثل مواجهة تغير المناخ والتكيف معه، والكشف المبكر عن السرطان والوقاية منه، ومكافحة التهديدات السيبرانية.


كما أن الشركات المؤسسة للمنتدى تتطلب من المنظمات الانضمام إليها أن تستوفي عدة معايير، مثل تطوير أو نشر نماذج حدود، وأن تكون قادرة على تجاوز القدرات الحالية المتقدمة للنماذج وأداء مجموعة متنوعة من المهام. كما يجب عليها أن تظهر التزامًا بالسلامة من خلال الأساليب التقنية والمؤسسية.


المجموعة تعتزم تشكيل مجلس استشاري يضم خبراء من خلفيات متنوعة لتحديد أولوياتها في الأشهر القادمة، وسوف تتعاون مع منظمات المجتمع المدني في تصميم الحوكمة وتمويلها.


كما يأتي هذا الجهد في وقت يعمل فيه صانعو السياسة على تحديد شكل المستقبل للتقنية، محاولين أن لا يعوقوا الابتكار ويحافظوا في الوقت ذاته على دور الحكومات في تطوير الذكاء الاصطناعي، وذلك بعد إطلاق شركة OpenAI لروبوت الدردشة ChatGPT في وقت سابق من العام الماضي.



from موضوع جديد لك https://ift.tt/pXiMODk
via IFTTT

ليست هناك تعليقات:

إرسال تعليق