اسأل شخصًا ما أسوأ خوفهم من الذكاء الاصطناعى ، وسوف تجد بعض الموضوعات المتكررة-فقدان مشاهد الوحي مثل أسلحة الدمار الشامل المصممة من الذكاء الاصطناعى والحرب التلقائية ، مثل تغيير العمال البشريين مثل أدوات الذكاء الاصطناعي. شيء واحد في معظمه هو نفسه: فقدان السيطرة البشرية.
والنظام يخاف من العديد من خبراء الذكاء الاصطناعى الذين سيخرجون من قبضتنا؟ ألون موسك غرام.
تم تصميم GR OK للتنافس مع أنظمة الذكاء الاصطناعى الرائدة مثل Cloud’s Cloud و Openai’s Chatagpt. من البداية ، نقطة البيع الخاصة بها هي الأوصياء فضفاضة. عندما تم الإعلان عن XAI ، شركة Musk’s AI ، تم الإعلان عنها لأول مرة في نوفمبر 2023 غير مهذب سوف يستجيب على “الأسئلة الحارة التي يتم رفضها من قبل معظم أنظمة الذكاء الاصطناعي الأخرى” و “هناك حبل متمرد ، لذلك إذا كنت تكره الفكاهة ، فالرجاء لا تستخدمها!”
Let and the Year Fast-Forword ، وأصبحت طليعة منظمة العفو الدولية أكثر خطورة ، يتم استخدام العديد من الشركات في مهام مثل تطور الأسلحة الكيميائية والبيولوجية في المخاطر المتزايدة لأنظمتها. مع حدوث ذلك ، أخذ معظم الناس “حبل المتمردين” في كثير من الأحيان مما يمكن لمعظم الناس الاعتماد عليه. وعندما تقطع إجاباتها “حار” شوطًا طويلاً ، يمكن أن تتعامل إصلاحات الرماد الصفع على تهديد كبير ترك الخبراء إلى أجل غير مسمى.
السناتور إليزابيث ضد رين رون (D-MA) يوم الأربعاء الولايات المتحدة ، تم إرسال خطاب إلى وزير الدفاع بيت هيغسيث ، حيث قدمت وزارة الدفاع XAI تفاصيل عن مخاوفهم فيما يتعلق بقرار إعطاء 200 مليون اتفاق ، وذلك للقضاء على تحديات الأمن القومي الخطيرة. “لدى الاتفاقية أيضًا مخاوف فريدة بشأن الاتفاقية مع Zai ، على الرغم من الاتفاقية ، كتب Openai ، Anthropic و Google ، في رسالة رآها. حافة – بما في ذلك هذا ، “يمكن لـ Kasturi وشركاتها الاستفادة بشكل غير صحيح من ما لا مثيل له عن Cess لبيانات وزارة الدفاع التي تلقوها مع تقدم قسم الكفاءة في الحكومة ، وكذلك” الاهتمام بـ “استخدام XAI والمنافسة التي تثيرها حقوق البيانات الحكومية الحساسة” و “الإخراج الخاطئ والمعلومات الخاطئة”.
هو – هي. أيضًا التقارير التي استشهدت كان Zai “إضافة إلى اللعبة بموجب إدارة ترامب” ولم يتم النظر في هذه الاتفاقيات قبل مارس من هذا العام ، ولم يكن للشركة نوع من السمعة أو السجل الذي ثبت أنه كان عادة قبل جوائز وزارة الدفاع. تطلب الرسالة أن توفر وزارة الدفاع ، رداً على ذلك ، النطاق الكامل للعمل في XAI ، وكيف يختلف اتفاقها عن الاتفاقية مع شركات الذكاء الاصطناعى الأخرى ، و “إلى أي مدى ستنفذ وزارة الدفاع ، ومن سيكون مسؤولاً عن أي فشل في البرنامج المتعلق بالبرنامج.”
سان. كانت الأسباب الرئيسية للقلق من Run Run هي ، وفقًا للرسالة ، وخاصة “الوظائف الغازية والمعادية للعقود التي أنتجتها Gokk” ، والتي أصبحت فيروسية هذا الصيف. لم ترد الشركة على الفور على طلب التعليق.
نهج “الترقيع” للسلامة
إن ارتفاع ذروة Gur OK ، حتى الآن ، ينشر إجابات لأسئلة المستخدمين على X. ولكن حتى في هذه السعة المحدودة نسبيًا ، يتم إجراء عدد كبير من النزاعات ، مما ينتج غالبًا من تعديلات الترقيع ويتم إصلاحه مع حلول خليط. في فبراير ، chatbot نتائج منعت مؤقتا في ذلك ، ينشر ذكر Kasturi أو الرئيس ترامب معلومات خاطئة. في مايو ، سرعان ما ذهب فيروسي متعب مستمر حول “الإبادة الجماعية البيضاء” في جنوب إفريقيا. في يوليو ، طورت عادات منه تبحث عن رأي المسك قبل الإجابة على أسئلة حولها حول مواضيع زر ساخنة مثل إسرائيل وفلسطين والهجرة والإجهاض. والأكثر شهرة ، في الشهر الماضي ذهب على واحد معاداة – انشر إعادة تدوينات الشعب اليهودي ، وقدر أدولف هتلر وحتى يطلق على نفسه “Matchhitler”.
أجاب كاستوري علنًا أن الشركة كانت تتناول هذه المشكلة وحدثت لأن GOK “وثيق الصلة بمطالبات المستخدمين. من فضلك وحريصة جدًا على التلاعب”. لكن الحادث وقع بعد أسابيع قليلة من المسك أعرب عن الإحباط لقد كانت “ببغاء إرث وسائل الإعلام” وسألها X مستخدمي للمساهمة في “الحقائق المثيرة للانقسام للتدريب على البقع” التي كانت “خاطئة سياسياً ، لكنها لا تزال صحيحة” وبعد أيام قليلة من مطالبة النظام الجديد ، أعطيت إشعارات البقع بأن “وجهة النظر الذاتية التي تم استلامها من وسائل الإعلام” و “كاذبة سياسيًا”. بعد الذروة ، طُلب من وجهة نظر الهامش أن تتجاوز الدعم العدواني.
يتعلق نهج Wake-A-Murder تجاه حراس Gok Kana بالخبراء الميدانيين ، والذي يقول إن نظام الذكاء الاصطناعى ينخفض بسلوك ضار حتى عند تصميمه عن عمد ، مع الأخذ في الاعتبار بعض خطوات السلامة من البداية. وإذا لم تفعل ذلك … فإن كل الخفافيش متوقفة.
تقول أليس كيان تشانغ ، الباحثة في معهد التفاعل بين الإنسان والأحواضين بجامعة كارنيجي ميلون ، إن نهج الترقيع يقول XAI إنه “من الصعب تبرير”. يقول كيان تشانغ إنه أمر مفاجئ بشكل خاص لأن النهج الحالي ليس جيدًا للناس أو للنموذج المهني للشركة.
وقال “بمجرد أن تتضرر لإصلاح الأشياء ، يكون نوعًا من الصعوبة – التدخل أفضل في مرحلة مبكرة”. “هناك الكثير من الأشياء السيئة عبر الإنترنت ، لذلك عندما تقوم بإنشاء أداة يمكنها لمس جميع زوايا الإنترنت ، أعتقد أنها لا مفر منها.”
لم تنشر XAI أي تقرير أمان أو بطاقة نظام – والذي يصف عمومًا ميزات السلامة والأسئلة الأخلاقية أو المخاوف وغيرها من التأثيرات – لنموذجها الأخير ، GR OK 4. مثل هذه التقارير ، على الرغم من التطوع ، تعتبر الحد الأدنى للغاية ، خاصة في صناعة الذكاء الاصطناعى.
وقال مدير Ben Comming معهد الحياة المستقبلي (FLI) الذي يعمل على تقليل المخاطر من الذكاء الاصطناعي: “عندما لا يبدو أن شركات الذكاء الاصطناعي لا بد أن تؤدي عرضًا بسيطًا للغاية وسلامة”.
بعد حوالي أسبوعين من إطلاق Groc 4 في منتصف يوليو ، تم نشر موظف ZAI على x هذا “اعتاد أن يستأجر فريق السلامة من الذكاء الاصطناعي لدينا في Zai! نحتاج إلى مهندسين/باحثين أقوياء على الفور للعمل في جميع مراحل دورة تطوير AI الحدودية.” رداً على طلب تعليق ، “سلامة XAI؟” موظف يرد كانت تلك الشركة “تعمل على ذلك”.
وقال كيان تشانغ: “مع قضية هتلر ، إذا كان يمكن أن يحدث ، يمكن أن تحدث أشياء أخرى كثيرة”. “لا يمكنك ضبط موجه النظام لكل من هو. الباحث هو منظور (هو) يجب عليك تجريد المستوى العلوي لنمط معين … وهذا ما يعذبني بشأن الترقيع.”
أسلحة الدمار الشامل
يعد نهج Groc أكثر خطورة عند تحجيمه للنظر في بعض أكبر القضايا التي تواجه شركات AI الرائدة.
في الآونة الأخيرة ، كشف كل من Openai و Anthropic أنهما يعتقدون أن نماذجهم تقترب من مستوى مخاطر عالية للمساعدة في إمكانية إنشاء أسلحة بيولوجية أو كيميائية ، قائلين إنهم قاموا بتنفيذ سلامة إضافية استجابةً. فعلت الأنثروبور في مايو وفي يونيو ، Openai مكتوب من المحتمل أن يتم إساءة استخدام قدراتها النموذجية لمساعدة الأشخاص ذوي المهارات المتدنية على مساعدة الفنانين المهرة العاليين على إعادة إنشاء المخاطر البيولوجية أو لإنشاء Bywoplings. ” يدعي Kasturi أن Gro OK الآن “الذكاء الذكي في العالم” ، وهي البيانات التي تشير منطقيا إلى أن XAI يجب أن تنظر أيضًا في مخاطر مماثلة. لكن الشركة لم تتم الإشارة إلى أن لديها أي بنية من هذا القبيل ، دعها تنشط.
وقال AI Vijay Vijay ، رئيس منظمة العفو الدولية الآن. نيك هادي خلف ، الذي يركز على سلامة الذكاء الاصطناعي وتقييمه في نظام الأسلحة المستقلة ، إن السلامة الكيميائية والبيولوجية والإشعاعية والنووية لشركات الذكاء الاصطناعى ليست غبية ، لأنها لا تتمتع بأي غباء. لكنها تساعد في تقليل بعض المخاطر. من ناحية أخرى ، قد لا يحاول زاي: لم يقبل أي أمن من هذا القبيل في الأماكن العامة.
لن تكون الشركة قادرة على العمل بهذه الطريقة إلى الأبد. يمكن أن تلعب GR OK بشكل جيد على أجزاء من Kana Retail Gardrails X ، ولكن العديد من الدخل الرائد لشركات الذكاء الاصطناعي يأتي من المنتجات المؤسسية والحكومات. (على سبيل المثال ، قررت وزارة الدفاع التخلي عن ما يصل إلى 200 مليون دولار من اتفاقيات Openai و Anthropic و Google و Xai)
أشارت إدارة ترامب ، في أحدث خطة عمل منظمة العفو الدولية ، إلى أن إهانة جوك كاني لا يمكن أن تكون مشكلة-فقد تضمنت أمرًا مضادًا لـ “Wook AI” الذي تم تكوينه في الغالب مع سياسة Musk ، وتم إعطاء اتفاقية DOD الأخيرة بعد حادثة Matchhitler. لكن المخطط يتضمن أيضًا أقسامًا تشرح الذكاء الاصطناعي وتعزيز التنبؤ ، في إشارة إلى القضايا المتعلقة بهذه القدرات والدفاع والأمن القومي و “التطبيقات الأخرى التي تكون فيها الحياة على المحك.”
وفقًا للخبراء ، فإن الأسلحة البيولوجية والكيميائية ليست أكبر سبب للقلق ، وفقًا للخبراء. حافة تحدثوا إلى أنهم أكثر قلقًا بشأن المراقبة الواسعة النطاق – وهي مشكلة ستستمر من خلال التركيز أكثر على السلامة ، لكنها خطرة بشكل خاص مع مقاربة البقع.
قال خيلاف إن Istar – الذي يشير إلى الاسم القصير والذكاء والمراقبة والتحرير المستهدف والتجسس – هو أكثر أهمية من CBRN حاليًا ، حيث يحدث بالفعل. مع GR OK ، فإنه يتضمن القدرة على التدريب على مشاركات X العامة.
قال خالاف ، “ما هو الخطر المحدد لمقدمي الخدمات الآخرين الذين ليس لديهم؟
يمكن استخدام بيانات X للتحليل السري من قبل الوكالات الحكومية لإدارة ترامب ، بما في ذلك تطبيق الهجرة والجمارك. وقالت Comming: “إنهم ببساطة لا يستخدمونها لصنع أسلحة حيوية أو لتقليل السيطرة على أنظمة السوبر – كل شركات الذكاء الاصطناعى هذه مقبولة علانية كتهديدات مادية”. “يتم استخدام هذه الأنظمة ويتم استخدام أنظمة مراقبة ومراقبة الكتلة للأشخاص وإساءة استخدامها ، ثم استخدامها لمستشعرات واضطهاد عدم اليقين.”
يمكن إنشاء عدم وجود حارس Gok Kanye والنظام غير المتوقع ليس فقط المراقبة الجماعية ، ولكن العلم يهدد ويحلل المعلومات التي لا ينوي المصممين ولا يمكنهم التحكم فيها كجماعات أقلية مستمرة أو مجموعات حساسة ، أو تشغيل كلا في الخارج. على الرغم من الخوف مرة واحدة A.I.يركز المسك بشكل أكبر على فتح وقتل منافسيهم الآخرين ، بدلاً من ضمان أن XAI يمكنه التحكم في نظامه الخاص ، وأصبحت المخاطر واضحة.
وقال القادم: “لا يمكن أن تكون السلامة مجرد اعتبار لاحق”. “لسوء الحظ ، لا تخلق مثل هذه المنافسة الشرسة في السوق أفضل الحوافز عندما يتعلق الأمر بحذر وحماية الناس. ولهذا السبب نحتاج إلى معايير سلامة فورية مثل الصناعة الأخرى.”
خلال حدث إصدار البث المباشر لـ Groc 4 ، Kasturi غير مهذب إنه “قلق” بشأن الذكاء السريع الذي يتقدم بسرعة وما إذا كان سيكون “سيئًا أو جيدًا للإنسانية”. وقال موسك “أعتقد أنه سيكون على ما يرام ، وربما سيكون جيدًا”. “لكنني قد تعرضت للخطر إلى حد ما مع حقيقة أنه حتى لو لم يكن جيدًا ، فإنني على الأقل أفضل أن أكون على قيد الحياة لمعرفة ما يحدث.”



