تجسيم الذكاء الاصطناعي: لقد تم بالفعل الكشف عن العواقب الوخيمة لارتكاب خطأ شبيه بالإنسان تجاه الإنسان


انضم إلى نشراتنا الإخبارية اليومية والأسبوعية للحصول على آخر التحديثات والمحتوى الحصري حول تغطية الذكاء الاصطناعي الرائدة في الصناعة. يتعلم أكثر


وفي تعجلنا لفهم الذكاء الاصطناعي والارتباط به، وقعنا في فخ مغر: إسناد الخصائص البشرية إلى هذه الأنظمة القوية ولكنها غير بشرية في الأساس. إن تجسيم الذكاء الاصطناعي هذا ليس مجرد انحراف غير ضار للطبيعة البشرية، بل أصبح اتجاهًا متزايد الخطورة يمكن أن يؤثر بشكل حاسم على حكمنا. ويساوي قادة الأعمال بين تعلم الذكاء الاصطناعي والتعلم البشري، حتى يتمكن المشرعون من تبرير ممارسات التدريب التي تصوغ السياسات استنادا إلى تشبيهات معيبة بين الإنسان والذكاء الاصطناعي. وهذا الميل لإضفاء الطابع الإنساني على الذكاء الاصطناعي يمكن أن يشكل بشكل غير مناسب القرارات الحاسمة عبر الصناعات والأطر التنظيمية.

إن النظر إلى الذكاء الاصطناعي من خلال عدسة بشرية في الأعمال التجارية يمكن أن يدفع الشركات إلى المبالغة في تقدير قدرات الذكاء الاصطناعي أو التقليل من أهمية الحاجة إلى الإشراف البشري، مما يؤدي في بعض الأحيان إلى عواقب مكلفة. إن المخاطر مرتفعة بشكل خاص في قانون حقوق الطبع والنشر، حيث يؤدي التفكير الأنثروبولوجي إلى مقارنات إشكالية بين التعلم البشري والتدريب على الذكاء الاصطناعي.

فخ اللغة

استمع إلى الطريقة التي نتحدث بها عن الذكاء الاصطناعي: نقول إنه “يتعلم” و”يفكر” و”يفهم” و”يبدع”. تبدو هذه الكلمات البشرية طبيعية، لكنها خادعة. عندما نقول إن نموذج الذكاء الاصطناعي “يتعلم”، فإنه لا يكتسب الفهم مثل الطالب البشري. وبدلاً من ذلك، تقوم بإجراء تحليل إحصائي معقد على كميات كبيرة من البيانات عن طريق ضبط الأوزان والمعلمات في شبكاتها العصبية بناءً على مبادئ رياضية. لا يوجد فهم أو لحظة اكتشاف أو شرارة إبداع أو فهم حقيقي – فقط مطابقة الأنماط أكثر وأكثر تعقيدًا.

هذا الانفتاح اللغوي لليد هو أكثر من مجرد دلالي. كما هو مذكور في الورقة ، الحجة الخاطئة التي قدمتها شركة Geneative AI بشأن الاستخدام العادل: “إن استخدام لغة مجسمة لوصف تطوير وتشغيل نماذج الذكاء الاصطناعي هو أمر خاطئ لأنه يعني أنه بمجرد تدريب النموذج، فإنه يعمل بشكل مستقل عن محتوى المهام التي تم تدريبه عليها.” ولهذا الارتباك عواقب حقيقية، خاصة عندما يؤثر على القرارات القانونية والسياسية.

الانفصال المعرفي

ربما يكون الجانب الأكثر خطورة في تجسيم الذكاء الاصطناعي هو كيفية حجب الاختلافات الأساسية بين الذكاء البشري والذكاء الآلي. في حين أن بعض أنظمة الذكاء الاصطناعي تتفوق في أنواع معينة من المهام المنطقية والتحليلية، فإن نماذج اللغة الكبيرة (LLM) التي تهيمن على خطاب الذكاء الاصطناعي اليوم – وتركيزنا هنا – تعمل من خلال التعرف على الأنماط المتطورة.

تقوم هذه الأنظمة بمعالجة كميات هائلة من البيانات، والتعرف على العلاقات الإحصائية وتعلمها بين الكلمات والعبارات والصور والمدخلات الأخرى للتنبؤ بما يجب أن يأتي بعد ذلك في التسلسل. عندما نقول إنهم “يتعلمون”، فإننا نصف عملية تحسين رياضي تساعدهم على إجراء تنبؤات دقيقة بشكل متزايد بناءً على بيانات التدريب الخاصة بهم.

خذ بعين الاعتبار هذا المثال الرائع من البحث الذي أجراه بيرجلوند وزملاؤه: إن النموذج الذي تم تدريبه على مادة تقول “أ يساوي ب” غالبًا لا يستطيع أن يفكر، مثل الإنسان، في أن “ب يساوي أ”. إذا عرف الذكاء الاصطناعي أن فالنتينا تيريشكوفا هي أول امرأة تصعد إلى الفضاء، فيمكنه الإجابة بشكل صحيح “من هي فالنتينا تيريشكوفا؟” ولكن “من هي أول امرأة في الفضاء؟” صراع مع. يوضح هذا القيد الفرق الأساسي بين التعرف على الأنماط والتفكير الحقيقي، بين التنبؤ بالتسلسلات المحتملة للكلمات وفهم معناها.

ولهذا التحيز الأنثروبولوجي آثار مثيرة للقلق بشكل خاص في المناقشة الجارية حول الذكاء الاصطناعي وحقوق الطبع والنشر. الرئيس التنفيذي لشركة مايكروسوفت ساتيا ناديلا تمت مقارنة تدريب الذكاء الاصطناعي مؤخرًا بالنسبة للتعلم البشري، يقترح أنه إذا كان بإمكان البشر التعلم من الكتب دون آثار على حقوق الطبع والنشر، فيجب أن يكون الذكاء الاصطناعي قادرًا على فعل الشيء نفسه. توضح هذه المقارنة بشكل مثالي خطورة التفكير المتمركز حول الإنسان في المناقشات حول الذكاء الاصطناعي الأخلاقي والمسؤول.

ويرى البعض أن هذا التشبيه يحتاج إلى تحسين لفهم التعلم البشري وتدريب الذكاء الاصطناعي. عندما يقرأ البشر الكتب، فإننا لا نصنع نسخًا منها، بل نفهم المفاهيم ونستوعبها. من ناحية أخرى، يجب على أنظمة الذكاء الاصطناعي إنشاء نسخ مادية من المهام – التي يتم الحصول عليها غالبًا بدون إذن أو دفع – وترميزها في بنيتها والحفاظ على هذه الإصدارات المشفرة لتعمل. المهام لا تختفي بعد “التعلم” كما تدعي شركات الذكاء الاصطناعي في كثير من الأحيان؛ يظلون مدمجين فيها الشبكات العصبية للأنظمة.

النقطة العمياء للأعمال

يؤدي تجسيد الذكاء الاصطناعي إلى خلق نقاط عمياء خطيرة في عملية صنع القرار في مجال الأعمال بما يتجاوز أوجه القصور التشغيلية البسيطة. عندما يفكر المسؤولون التنفيذيون وصناع القرار في الذكاء الاصطناعي باعتباره “مبدعًا” أو “ذكيًا” من الناحية البشرية، فقد يؤدي ذلك إلى افتراضات خطيرة وسلسلة من المسؤوليات القانونية المحتملة.

المبالغة في تقدير قدرات الذكاء الاصطناعي

أحد المجالات الحاسمة التي يشكل فيها التجسيم خطرًا هو إنشاء المحتوى والامتثال لحقوق الطبع والنشر. عندما ترى الشركات أن الذكاء الاصطناعي قادر على “التعلم” مثل البشر، فقد يعتقدون خطأً أن المحتوى الذي ينشئه الذكاء الاصطناعي يكون خاليًا تلقائيًا من مخاوف حقوق الطبع والنشر. يمكن أن يؤدي سوء الفهم هذا إلى قيام الشركات بما يلي:

  • استخدم أنظمة الذكاء الاصطناعي التي تعيد إنتاج محتوى محمي بحقوق الطبع والنشر عن غير قصد، مما يعرض الشركات لمطالبات الانتهاك
  • الفشل في تنفيذ الآليات المناسبة لتصفية المحتوى ومراقبته
  • نفترض خطأً أن الذكاء الاصطناعي يمكنه التمييز بشكل موثوق بين المحتوى العام والمحتوى المحمي بحقوق الطبع والنشر
  • التقليل من أهمية الحاجة إلى المراجعة البشرية في عمليات إنشاء المحتوى

نقطة عمياء للامتثال عبر الحدود

يشكل التحيز المجسم في الذكاء الاصطناعي مخاطر عندما نفكر في الامتثال عبر الحدود. كما أوضح دانييل جيرفيه، وهارالامبوس مارمانيس، ونعوم شيمتوف، وكاثرين زالار رولاند “جوهر المسألة: حقوق الطبع والنشر والتدريب على الذكاء الاصطناعي وماجستير العلوم.“يعمل قانون حقوق الطبع والنشر وفقًا لمبادئ إقليمية صارمة، حيث تحتفظ كل ولاية قضائية بقواعدها الخاصة بشأن ما يشكل انتهاكًا والاستثناءات المطبقة.

هذه الطبيعة الإقليمية لقانون حقوق الطبع والنشر تخلق شبكة معقدة من المسؤولية المحتملة. قد تفترض الشركات خطأً أن أنظمة الذكاء الاصطناعي الخاصة بها يمكنها “التعلم” بحرية من المواد المحمية بحقوق الطبع والنشر عبر الولايات القضائية، وتفشل في إدراك أن أنشطة التدريب القانونية في بلد ما قد تشكل انتهاكًا في بلد آخر. لقد أدرك الاتحاد الأوروبي هذا الخطر في قانون الذكاء الاصطناعي الخاص به، لا سيما من خلال الدرس 106يجب أن يتوافق أي نموذج ذكاء اصطناعي للأغراض العامة يتم تقديمه في الاتحاد الأوروبي مع قانون حقوق النشر الخاص بالاتحاد الأوروبي فيما يتعلق ببيانات التدريب، بغض النظر عن مكان إجراء التدريب.

وهذا أمر مهم لأن تجسيد قدرات الذكاء الاصطناعي يمكن أن يدفع الشركات إلى التقليل من أهمية التزاماتها القانونية عبر الحدود أو إساءة فهمها. إن الخيال المريح المتمثل في “تعلم” الذكاء الاصطناعي مثل البشر يحجب حقيقة أن التدريب على الذكاء الاصطناعي يتضمن عمليات نسخ وتخزين معقدة تؤدي إلى التزامات قانونية مختلفة في ولايات قضائية أخرى. إن سوء الفهم الأساسي هذا للعمل الفعلي للذكاء الاصطناعي، إلى جانب الطبيعة الإقليمية لقانون حقوق الطبع والنشر، يخلق مخاطر كبيرة للشركات العاملة على مستوى العالم.

التكلفة البشرية

واحدة من التكاليف الأكثر أهمية هي الخسائر العاطفية الناجمة عن تجسيم الذكاء الاصطناعي. نحن نشهد بشكل متزايد أن الناس يشكلون روابط عاطفية مع روبوتات الدردشة المدعمة بالذكاء الاصطناعي، ويعاملونهم كأصدقاء أو مقربين. قد يكون هذا صحيحا بشكل خاص خطير للأشخاص الحساسين والتي قد تشارك معلومات شخصية أو تعتمد على الذكاء الاصطناعي للحصول على الدعم العاطفي الذي لا يمكنها تقديمه. على الرغم من أن استجابات الذكاء الاصطناعي تبدو متعاطفة، إلا أنها عبارة عن مطابقة أنماط متطورة تعتمد على بيانات التدريب – ولا يوجد فهم حقيقي أو اتصال عاطفي.

يمكن أن يظهر هذا الضعف العاطفي في البيئات المهنية أيضًا. ومع تزايد دمج أدوات الذكاء الاصطناعي في العمل اليومي، قد يطور الموظفون مستوى غير ضروري من الثقة في هذه الأنظمة، ويعاملونهم كزملاء حقيقيين وليس كأدوات. وقد يشاركون معلومات العمل السرية بحرية كبيرة أو يترددون في الإبلاغ عن الأخطاء بسبب شعور زائف بالولاء. وفي حين تظل هذه السيناريوهات منفصلة في الوقت الحالي، فإنها تسلط الضوء على كيف يمكن لتجسيم الذكاء الاصطناعي في مكان العمل أن يؤثر على الحكم ويخلق اعتماداً غير صحي على الأنظمة التي، على الرغم من استجاباتها المتطورة، غير قادرة على الفهم الحقيقي أو الرعاية.

التحرر من الفخ المجسم

فكيف نمضي قدما؟ أولاً، نحتاج إلى أن نكون أكثر تحديدًا في لغتنا حول الذكاء الاصطناعي. فبدلاً من القول إن الذكاء الاصطناعي “يتعلم” أو “يفهم”، يمكننا أن نقول إنه “يعالج البيانات” أو “يولد مخرجات بناءً على أنماط في بيانات التدريب الخاصة به”. هذا ليس مجرد كلام متحذلق – فهو يساعد في توضيح ما تفعله هذه الأنظمة.

ثانيًا، يجب علينا تقييم أنظمة الذكاء الاصطناعي وفقًا لما نتخيله وليس ما هي عليه بالفعل. وهذا يعني الاعتراف بقدراتهم الرائعة وقيودهم الأساسية. يمكن للذكاء الاصطناعي معالجة كميات هائلة من البيانات والتعرف على الأنماط التي قد يفوتها البشر، لكنه لا يستطيع فهم الطريقة التي يفعلها البشر، لأنه لا يستطيع الإبداع.

وأخيرا، يتعين علينا أن نعمل على تطوير أطر وسياسات تعالج الخصائص الحقيقية للذكاء الاصطناعي بدلا من الصفات المتخيلة الشبيهة بالإنسان. وهذا أمر بالغ الأهمية بشكل خاص في قانون حقوق الطبع والنشر، حيث يمكن أن يؤدي التفكير الأنثروبولوجي إلى قياسات خاطئة واستنتاجات قانونية غير مناسبة.

الطريق إلى الأمام

ومع ازدياد تطور أنظمة الذكاء الاصطناعي في محاكاة الناتج البشري، فإن إغراء تجسيمها سيصبح أقوى. يؤثر هذا التحيز المجسم على كل شيء، بدءًا من كيفية تقييمنا لقدرات الذكاء الاصطناعي وحتى كيفية تقييم مخاطره. وكما رأينا، يمتد ذلك إلى تحديات عملية كبيرة تتعلق بقانون حقوق الطبع والنشر والامتثال التجاري. وبينما ننسب قدرات التعلم البشري إلى أنظمة الذكاء الاصطناعي، يجب علينا أن نفهم طبيعتها الأساسية والواقع التقني لكيفية معالجة المعلومات وتخزينها.

إن فهم الذكاء الاصطناعي على حقيقته – أي أنظمة معالجة المعلومات المتطورة، وليس المتعلمين الشبيهين بالبشر – يعد أمرًا بالغ الأهمية لجميع جوانب حوكمة الذكاء الاصطناعي ونشره. ومن خلال تجاوز التفكير المتمركز حول الإنسان، يمكننا معالجة تحديات أنظمة الذكاء الاصطناعي بشكل أفضل، بدءًا من الاعتبارات الأخلاقية ومخاطر السلامة إلى الامتثال لحقوق الطبع والنشر عبر الحدود وإدارة بيانات التدريب. سيساعد هذا الفهم الأكثر دقة الشركات على اتخاذ قرارات أكثر استنارة مع دعم تطوير السياسات والخطاب العام بشكل أفضل حول الذكاء الاصطناعي.

كلما أسرعنا في تبني الطبيعة الحقيقية للذكاء الاصطناعي، كلما أصبحنا مجهزين بشكل أفضل للتعامل مع آثاره الاجتماعية العميقة والتحديات العملية في اقتصادنا العالمي.

روني ليفي هو مستشار قانوني ومرخص سي سي سي.

صانعو قرارات البيانات

مرحبًا بك في مجتمع VentureBeat!

DataDecisionMakers هو المكان الذي يمكن للخبراء، بما في ذلك الأشخاص التقنيون الذين يقومون بأعمال البيانات، مشاركة الرؤى والابتكارات المتعلقة بالبيانات.

إذا كنت تريد أن تقرأ عن أحدث الأفكار والمعلومات المتطورة وأفضل الممارسات ومستقبل البيانات وتكنولوجيا البيانات، انضم إلينا في DataDecisionMakers.

قد تفكر أيضًا في المساهمة بمقالك الخاص!

اقرأ المزيد من DataDecisionMakers

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى