تتعلق الذكاء الاصطناعى بصناعة تقنية محتملة على معهد سلامة الذكاء الاصطناعي

نحن أ. ينتج معهد السلامة (AISI) إنذارًا بين بعض الأشخاص في مجال التكنولوجيا المحتملة الذين قد يكونون عرضة لخطر تطوير الذكاء الاصطناعي المسؤول (AI) حيث يعمل الرئيس ترامب على الحد من الحكومة الفيدرالية.
يمكن أن تؤثر معايير المعهد الوطني للمعهد و. G
بعد توليه منصبه الشهر الماضي ، يحل ترامب محل نغمة البيت الأبيض على تطوير الذكاء الاصطناعي ، وإعطاء الأولوية للابتكار ، وفي الولايات المتحدة. طالب بالحفاظ على القيادة.
يقول بعض الخبراء التقنيين أن التخفيضات المحتملة تضعف هذا الهدف وتعيق القدرة التنافسية لأمريكا في الفضاء.
“يبدو تقريبا مثل حصان طروادة. على هذا النحو ، فإن الجزء الخارجي من الحصان جميل. إنها كبيرة وهذه الرسالة هي أننا نريد أن تصبح الولايات المتحدة رائدة في منظمة العفو الدولية ، لكن الإجراءات الفعلية ، الداخلية (الهدف) ، يجب أن تتفكك المسؤولية الفيدرالية والأموال الفيدرالية لدعم المهمة “. ، أستاذ الهندسة الكهربائية وعلوم الكمبيوتر بجامعة ميشيغان.
تم إنشاء AISI بموجب وزارة التجارة في عام 2023 ردًا على الأمر التنفيذي لرئيس AISI آنذاك بايدن. ابتكر ترامب معايير أمنية جديدة في مسائل أخرى لمنظمة العفو الدولية مع أمر صدر في يومه الأول في Office Fiss.
المنظمة مسؤولة عن اختبار وتقييم وتوجيه الذكاء الاصطناعي “الموثوق”.
رقائق AISI وأمريكا – كلاهما تحت NIST – يمكن أن يكون موظفو الاختبار “أمعاء” بواسطة Sapphire في ضوء Axios مسجل الأسبوع الماضي.
تلقى بعض هؤلاء الموظفين تعليمات شفهية الأسبوع الماضي حول الإنهاء التالي ، على الرغم من أن القرار النهائي بشأن نطاق القطع لم يتخذ بعد ، تقرير بلومبرجنقلا عن مصادر مجهولة.
لم يرد البيت الأبيض أو وزارة التجارة على طلب هيل للتعليق يوم الاثنين.
لجنة الكفاءة الحكومية في ترامب (DOGE) ، بقيادة الملياردير للتكنولوجيا ألون موسك ، تُزقي على الحكومة الفيدرالية ، وتطلب تخفيف الآلاف من الموظفين الفيدراليين لخفض التكاليف لآلاف الموظفين الفيدراليين.
أشار جيسون غرين لور ، المدير التنفيذي لمركز سياسة الذكاء الاصطناعى ، إلى أن NIST الواسع النطاق و AISI “قد تم بالفعل” معزولين بشكل خطير “، وليس هناك تخفيضات ليست مسؤولة فقط عن البلد ، ولكن أيضًا عرضة لخطر الذكاء الاصطناعي الفعال والعالي الأداء .
قال: “لا يريد منظمة العفو الدولية دفع مليارات الدولارات لنشر الذكاء الاصطناعي في حالة استخدام حاسمة ليست ذات مصداقية لمنظمة العفو الدولية”. “وكيف تعرف أن الذكاء الاصطناعي لديك موثوق به؟ هل تعلم أنه موثوق لأن شخصًا ما في قسم التسويق في شركتك أخبرك؟ “
قال Green-Lo ، “هناك حاجة إلى وجود نوع من مراقبة الجودة التي تنتقل فقط من شركة شخصية تتعرض لضغوط هائلة لإرسالها قبل منافسيها والذهاب إلى السوق”.
تتيح شركات الذكاء الاصطناعى ، بما في ذلك Openai و Anthropic ، AISI استخدام نماذجها للبحث ، بما في ذلك دراسة المخاطر القادمة بالتكنولوجيا الناشئة.
تدور وظيفة AISI حول تطوير المعايير. على الرغم من المفاهيم الخاطئة العامة ، فهي ليست وكالة تنظيمية ولن تفرض قواعد على الصناعة بموجب الهيكل الحالي.
بدأت الشائعات بأن المنظمة سيتم إغلاقها في نهاية المطاف في عهد ترامب ، وتوقفت المخرج إليزابيث كيلي عن المنشور في بداية هذا الشهر. كانت هناك منظمة غير مدرج في التقرير قمة عمل الذكاء الاصطناعي في باريس في الوفد الأمريكي.
من خلال قطع أو إغلاق معهد التكنولوجيا ، يشعر بعض خبراء التكنولوجيا بالقلق من أن يتم تخفيض سلامة وثقة الشركات الخاصة بالمناسبة.
وقال كورسا: “طالما أن المستخدمين يدفعون ثمن منتجاتهم ، فلا يوجد تشجيع مباشر للشركة للقلق بشأن الذكاء الاصطناعى الآمن” طالما أن المستخدمين يدفعون ثمن منتجاتهم ، فلا يوجد تشجيع مباشر للشركة للقلق بشأن الذكاء الاصطناعي الآمن “، طالما أن المستخدمين يدفعون ثمن منتجاتهم ، لا يوجد تشجيع مباشر للشركة للقلق بشأن الذكاء الاصطناعى الآمن”.
أوضح ترامب أنه كان في الولايات المتحدة في الأشهر المقبلة. أ. تريد زيادة التنمية.
تم الإعلان عن مليار بمبلغ 500 مليار دولار في الإجراء الأول من أول إجراء للرئيس ، Openai و SoftBank و Oracle.
وفي الوقت نفسه ، مكتب البيت الأبيض للعلوم والتكنولوجيا طرح الطلب للحصول على معلومات حول تطوير الذكاء الاصطناعي لإنشاء “خطة عمل منظمة العفو الدولية” في وقت لاحق من هذا العام.
ضاعف نائب الرئيس فانس موقف الإدارة في وقت سابق من هذا الشهر ، مما أدى إلى “التنظيم المفرط” في خطاب في قمة عمل الذكاء الاصطناعى في باريس. وتبع الأمر التنفيذي لترامب الشهر الماضي للتغلب على القيادة الأمريكية في الفضاء.
وأوصى وزير التجارة هوارد لوتنيك التنمية معايير الذكاء الاصطناعي على NISTمقارنة مع عمل القسم على التكنولوجيا الإلكترونية والقواعد.
وقال العديد من المراقبين في الصناعة لصحيفة ذا هيل إن البقع أو الأموال المحتملة ستتناقض مع تعليق الإدارة وتتحرك حتى الآن ويعيق الحافة التنافسية الأمريكية.
قال Green-Law ، “إذا كنا نستجر كل هذه الاستثمارات في الذكاء الاصطناعي ، فنحن بحاجة إلى استثمار إضافي نسبي بين الأدلة والمعايير والحراس”. “بدلاً من ذلك ، نقوم بإلقاء بعض أفضل المواهب الفنية.”
وأضاف “إنه يضعف حالتنا التنافسية”. “إذا كانت الحكومة جادة في أن تكون في سباق ضيق مع الصين أو غيرها ، إذا كانت خطيرة أو نحتاج إلى كل فائدة … فسوف تتحرك نحو التنمية”.
وقال إريك جيستفو ، المدير التنفيذي للأميركيين غير الربحيين عن الابتكار المسؤول ، بالنظر إلى الاهتمام المتزايد في الذكاء الاصطناعي في العام الماضي ، إن العديد من موظفي الاختبار “لديهم العديد من مواهب الذكاء الاصطناعي”.
تم تسخين سباق الذكاء الاصطناعى العالمي في الأشهر القليلة الماضية ، وخاصة الشهر الماضي ، بعد أسواق الإنترنت والأسهم من خلال الأعاصير ، أعاصير Deepck ، عالي الأداء ورخيصة النموذج الصيني.
“نريد أن يكون لدينا صورة واضحة عن مكان وجود الصين في هذه التكنولوجيا ، ولديه معهد السلامة من الذكاء الاصطناعى موهبة فنية لتكون قادرة على تقييم نماذج من نماذج مثل dippeaks ،” والتقييم.
دعا ديفيد SKS QS ، AI و Crypto Zazar ، “Weep-Up Call L” ل Deepsk لابتكار الذكاء الاصطناعي ، لكنه أزال المخاوف من أن نماذج النماذج الأمريكية الصنع ستزيد.
حاولت الولايات المتحدة مرارًا وتكرارًا ضمان أن يعيش إنتاج AI-Powering Technol .Gee ، وخاصة تصنيع الرقائق ، في الولايات المتحدة. خلال جلسة الاستماع المؤكدة الشهر الماضي ، وعد Lootnik اتباع نهج عدواني لإنتاج الرقائق.
ومع ذلك ، فإن بعض الأشخاص في مساحة الذكاء الاصطناعي لا يعتقدون أن ابتكار النماذج أو المعدات في حالة حدوث هذه التحطيم ، يظهر مناقشة مستمرة حول الطريق التالي.
وقال المؤسس المشارك مات كالينز: “لدي الكثير من الثقة في القطاع الخاص للابتكار ، ولا أعتقد أننا بحاجة إلى تمويل الحكومة أو تمويل الأبحاث بصرف النظر عن الحالات الخاصة”. والرئيس التنفيذي لشركة Cloud Computing و S. Software Fatware Apien.
اليوم ، منظمة العفو الدولية “هي مسألة استثمار في القطاع الخاص أكثر وقحًا من أي شيء من السكك الحديدية” ، أضافت Calcins. “لا نحتاج إلى الحكومة للقيام بأي ابتكار لنا.”
سيكون هناك خطر “فوري” لسلامة تطوير الذكاء الاصطناعي ، حيث تغلب على المزيد من المخاوف.
قال: “كل منظمة العفو الدولية تتحول إلى مكان واحد ، وهي أداة ذات قيمة كبيرة ، ويمكنك القيام ببعض الأشياء السيئة معها ، يمكنك القيام ببعض الأشياء الجيدة معها” ، أضافنا. الصناعة ، وعندما نراها ، نود معالجتها.
إذا كان هناك انقسام ، أو يجب أن تفقد المنظمة الأموال ، اقترح بعض الخبراء أن جهود DOGE تتحرك بسرعة وأن القانون الأخضر قد يحتاج إلى تصحيح أسفل الطريق إلى المعالجة كما هو موضح بأنه “نتائج غير مرغوب فيها”.