تنشر كاليفورنيا تقرير سلامة الذكاء الاصطناعي الطويل

في سبتمبر الماضي ، كانت كل العيون في مشروع قانون مجلس الشيوخ 1047 لأنه توجه إلى مكتب حاكم كاليفورنيا غافن نيوزوم – وتوفي هناك لأنه أعطى حق النقض إلى الجزء القوي من القانون.

سيحصل SB 1047 على جميع نماذج AI الكبيرة المطلوبة لمصنعي Dello ، لا سيما لاختبارها لبعض المخاطر ، بما يكلف 100 مليون أو أكثر للتدريب. لم تكن صناعة الذكاء الاصطناعى راضية عن حقول النورات في صافرة ، ومعظم شركات التكنولوجيا الكبرى. لكن القصة ليست هناك. قامت شركة Newsum ، التي شعرت أن القانون الصارم للغاية والمناسبة لكل شيء ، إلى مجموعة من قيادة الباحثين من الذكاء الاصطناعي للمساعدة في اقتراح خطة بديلة ، من شأنه أن يدعم تطوير ونظام توليد الذكاء الاصطناعي في كاليفورنيا ، إلى جانب Guardrels لمخاطرها.

تم نشر التقرير يوم الثلاثاء.

52 كتاب بابا “تقرير كاليفورنيا عن سياسة الحدود“ذكرت أن قدرات الذكاء الاصطناعى-فيما يتعلق بقدرات” المنطق “لتفكير السلسلة في النماذج-تحسنت بسرعة” مع قرار Vetu SB 1047. دراسات حالة الدقة التاريخية ، والبحث التجريبي ، والنمذجة والمحاكاة ، اقترحوا إطارًا جديدًا ، وإطارًا جديدًا. سينا من 10 سنوات ممكنة على الدول التي تنظم الذكاء الاصطناعى -شركات مثل الكونغرس الجمهوري و Openai.

المدير المشارك لمعهد ستانفورد للذكاء الاصطناعي في مركز الوسط من قبل تقرير فاي فاي لي ؛ رئيس Carnegie Endowment لـ Mariano-Florentino Cular ، السلام الدولي ؛ وخلصت جامعة UC Berkele College Comp Fi Computing و Dion Science and Society Dean Jennifer Tour Cyes إلى أن نجاحات Frontier AI في كاليفورنيا يمكن أن يكون لها تأثير كبير على الزراعة والتكنولوجيا الحيوية والتكنولوجيا النظيفة والتعليم والتمويل والنقل. وافق كتابها على أنه من المهم قمع الابتكار و “العبء التنظيمي لضمان وجود موارد للامتثال للمؤسسات”.

“بدون السلامة المناسبة … غامبير القوية وفي بعض الحالات ، قد يكون أضرارًا قابلة للعكس”

لكن لا يزال من الأعلى تقليل المخاطر ، كتبوا: “بدون السلامة المناسبة … al قوية ، وفي بعض الحالات ، يحتمل أن يكون ذلك أضرارًا قابلة للانعكاس.”

نشرت المجموعة مسودة نسخة من تقريرهم في مارس للتعليق العام. لكن حتى ذلك الحين ، كتبوا في النسخة النهائية ، دليل على أن هذه النماذج “تسهم في مخاطر الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN) …” الشركات الرائدة ، وهي مرتبطة ذاتيا بالارتفاع في إمكانات نماذجها في المجالات.

قام المؤلفون بعدة تغييرات على مشروع التقرير. يلاحظون الآن أن سياسة الذكاء الاصطناعى الجديد في كاليفورنيا ستتطلب التنقل في “الحقائق السياسية الجغرافية” السريعة. أضافوا المزيد من الإشارة إلى المخاطر التي أثارتها نماذج منظمة العفو الدولية الكبيرة Dello ، واتخذوا خطًا قويًا على الشركات المصنفة للتنظيم ، قائلين إن التركيز على مقدار حساب التدريب المطلوب.

تتغير متطلبات تدريب الذكاء الاصطناعي طوال الوقت ، وقد كتب المؤلفون ، وتجاهل التعريف القائم على المحسوبة كيفية اعتماد هذه النماذج في حالات الاستخدام في العالم الحقيقي. يمكن استخدامه “كمرشح لبدء رخيصة للشاشة التي يمكن أن تضمن المزيد من التحقق” ، ولكن عوامل مثل تقييم المخاطر الأولي وتقييم تأثير المصب.

إنه أمر مهم بشكل خاص لأن صناعة الذكاء الاصطناعى لا تزال Wild West عندما يتعلق الأمر بالشفافية ، وبعض العقود حول أفضل الجهود و “غير واضحة النظامية في المجالات الرئيسية” ، وكيفية اكتساب البيانات ، وعمليات السلامة والأمان ، واختبارات ما قبل الإصدار ، وتأثير المباراة المحتمل ، كتب المؤلفين.

حماية صافرة Blover في التقرير ، للباحثين الذين يديرونها مع Safe Harbour ، لتجاوز تقييم الطرف الثالث وشركات AI الرائدة الحالية ، فإنهم يدعون تقييم ومشاركة المعلومات المباشرة مع الأشخاص.

وقال سكوت سينجر أحد المؤلفين الرئيسيين للتقرير حافة تم “الترحيل بالكامل إلى المستوى الفيدرالي” مسودة التقرير. وقال إن كاليفورنيا تدعم العديد من الناس في جميع أنحاء البلاد يمكن أن يؤدي إلى “جهود متناغمة” في ولايات “سياسات الطوائف”. إنه متناقض مع الترقيع الفاضحة التي يزعم مؤيدو AI Mortorium أنه سيتم وضع قوانين الدولة.

في واحد إد في وقت سابق من هذا الشهر ، الرئيس التنفيذي للأنثروبور داريو أموداي أ معيار الشفافية الوعرةيجب الكشف عن شركات AI الرائدة علنًا على مواقع الويب الخاصة بها … كيف تخطط للاختبار والتقليل للأمن القومي وغيرها من المخاطر الكارثية. “

“المطورين وحدهم غير كافين لفهم التكنولوجيا بشكل كامل وخاصة مخاطرها وعيوبها”

لكن مثل هذه الخطوات ليست كافية ، فقد كتب مؤلفو تقرير يوم الثلاثاء ، لأنه “بالنسبة لتكنولوجيا جديدة ومعقدة تم تطويرها واعتمادها بوتيرة كبيرة ، فإن المطورين وحدهم غير كافين لفهم التكنولوجيا تمامًا ، وخاصة مخاطرها وخسائرها”.

هذا هو السبب في أن هناك حاجة إلى تقييم مخاطر طرف ثالث من المبادئ الرئيسية لتقرير يوم الثلاثاء.

وخلص الباحثون إلى أنه عند المساعدة في رسم صورة واضحة لنماذج تقييمات المخاطر الخاصة بهم ، فإن شركات مثل Openai و Anthropic و Google و Micros .FT وغيرها من شأنها أن تعزز سلامة النموذج. حاليًا ، عادةً ما تقوم شركات AI بتقييم نفسها أو توظيف مقاولي الطرف الثاني للقيام بذلك. لكن تقييم الطرف الثالث مهم ، كما يقول المؤلفون.

فقط “الآلاف من الأشخاص … ليسوا مستعدين للانضمام إلى تقييم المخاطر ، يقزمون حجم الفرق الداخلية أو المتعاقد عليه” ، ولكن في مجموعات من المقيمين من الطرف الثالث ، هناك مجموعة متنوعة لا لبس فيها ، خاصةً عندما يعكس المطورين بشكل رئيسي بعض الأدوات الديموغرافية والجغرافية التي تختلف غالبًا عن الذكاء الاصطناعي. “

ولكن إذا كنت تسمح لمقيمي الطرف الثالث باختبار المخاطر والأماكن العمياء لنماذج الذكاء الاصطناعى القوية ، فسيتعين عليك منحهم تقييمات للوصول إلى الثروة ، تنوع مدخل. ومن المتردد في القيام بشيء شركات.

ليس من السهل على مقيمي الطرف الثاني الحصول على هذا المستوى من الوصول. Metr ، كتبت الشركة في أحد الشركاء المفتوحين لاختبارات السلامة في نماذجها الخاصة بريد لم يتم إعطاء الكثير من الوقت لاختبار نموذج O3 لـ Openai ، كما كان مع النماذج المتأخرة Dello ، وهذا المفتوح لم يمنحه وصولًا كافيًا إلى المنطق الداخلي للبيانات أو النماذج. كتبت ماتار ، “تمنعنا من تقييمات القدرات القوية”. يفضح قال هذا الأخير كانت تبحث عن طرق لمشاركة المزيد من البيانات مع شركات مثل Metr.

يشير التقرير إلى أن واجهات برمجة التطبيقات أو إعلانات الوزن النموذجية لن تسمح لمقيمي الطرف الثالث باختبار المخاطر بشكل فعال ، وقد تستخدم الشركات شروط الخدمة “القمعية” لحظر أو تهديد الإجراءات القانونية ضد الباحثين المستقلين الذين يسلطون الضوء على أخطاء السلامة.

في مارس الماضي ، وقع أكثر من 350 من الباحثين في صناعة الذكاء الاصطناعي وغيرهم رسالة مفتوحة في مجالات أخرى ، الدفاع الحالي لفاحصي الأمن السيبراني الجهات الخارجية لاختبارات سلامة الذكاء الاصطناعى المستقلة لـ “ميناء آمن”. في تقرير الثلاثاء ، يتم الاستشهاد بالرسالة وتتطلب تغييرات كبيرة ، وكذلك خيارات الإبلاغ لأولئك الذين تضرروا من أنظمة الذكاء الاصطناعى.

كتب المؤلفون ، “حتى سياسات السلامة المصممة بالكامل لا يمكن أن تمنع عواقب ضارة كبيرة بنسبة 100 ٪.” “نظرًا لأن نماذج الأساس معتمدة على نطاق واسع ، فمن المهم أن نفهم الضرر الذي ينشأ في الممارسة”.

رابط المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى