إذا كنت قد عملت الكثير من وسائل التواصل الاجتماعي في الآونة الأخيرة ، فربما لاحظت الكثير من … الدمى.
هناك دمى في كل مكان x و Facebook تغذية. Instagram؟ دمى. تيخوك؟ لقد خمنت ذلك: دمى ، المزيد دروس حول كيفية صنع الدمى. هناك حتى دمى في كل مكان لييندينلا شك أن أخطر وعضو مضحك في العصابة.
يمكنك تسميته علاج باربي AI أو اتجاه Barbie Box. أو إذا لم تكن Barbie هي الشيء الخاص بك ، فيمكنك الذهاب مع تماثيل AI Action أو حزمة البداية من شخصية الإجراء أو اتجاه أرقام Action ChatGPT. ولكن مهما كانت علامة التجزئة الخاصة بك ، فإن الدمى على ما يبدو في كل مكان.
وعلى الرغم من أن لديهم أوجه تشابه (الصناديق والتعبئة التي تقليد باربي دي ماتيل ، فإن الملحقات التي تركز على الشخصية ، وابتسامة المظهر البلاستيكي) ، إلا أنها تختلف جميعها مثل الأشخاص الذين ينشرونها ، باستثناء خاصية حاسمة وشائعة: فهي ليست حقيقية.
في اتجاه جديديستخدم الأشخاص أدوات الذكاء الاصطناعي مثل ChatGpt لإعادة اختراع أنفسهم مثل الدمى أو أرقام الحركة ، مع الملحقات. لقد ثبت أنها تحظى بشعبية كبيرة ، وليس فقط مع المؤثرين.
المشاهير، السياسيون و العلامات التجارية الكبيرة قفز كل شيء. تقرير الصحفيين عن الاتجاه أن تفعل إصدارات من أنفسهم عقد الميكروفونات والكاميرات (على الرغم من أن هذا الصحفي لا يجعلك تعاني). وقد صنع المستخدمون إصدارات من جميع الأرقام البارزة التي يمكنك التفكير فيها ، من الملياردير إيلون موسك إلى الممثلة والمغنية أريانا غراندي.
وفقًا لموقع Media Tech القضيبلقد بدأ بالفعل في موقع التواصل الاجتماعي المحترف في LinkedIn ، حيث كان يتمتع بشعبية لدى أخصائيي التسويق تبحث عن التزام. وبالتالي ، فإن العديد من الدمى التي ستسعى للترويج لعملية تجارية أو تدافع. (يفكر، “دمية تسويق وسائل التواصل الاجتماعي،” أو “دمية مدير تحسين محركات البحث (SEO). “)
لكنه تم الكشف عنه منذ ذلك الحين للمنصات الأخرى ، حيث يبدو أن الجميع يتمتع ببعض المرح لاكتشاف ما إذا كانت الحياة البلاستيكية رائعة حقًا. ومع ذلك ، فإن هذا ليس من دواعي سرور مجنون بالضرورة ، وفقًا للعديد من خبراء IA الذين تحدثوا إلى CBC News.
وقال أناتولي جروزد ، الأستاذ والمدير الأبحاث لمختبر وسائل التواصل الاجتماعي في جامعة متروبوليتان في تورنتو: “إنه دائمًا ما يكون الغرب الأقصى فيما يتعلق بتوليد الذكاء الاصطناعي”.
“معظم المديرين التنفيذيين السياسيين والقانونيين لم يكتشفوا الابتكار بالكامل ، مما يترك شركات الذكاء الاصطناعى لتحديد كيفية استخدامها للبيانات الشخصية التي تقدمها.”
السرية
يوضح ماثيو جوزديال ، أستاذ مساعد في علوم الكمبيوتر بجامعة ألبرتا.
وقال لـ CBC News: “هذا هو نوع اتجاه الإنترنت الذي كان لدينا منذ أن كان لدينا وسائل التواصل الاجتماعي. ربما كانت أشياء مثل بريد إلكتروني تم إرسالها أو اختبار حيث ستشارك النتائج”.
ولكن بالنسبة لأي اتجاه منظمة العفو الدولية ، هناك بعض المخاوف على استخدامها للبيانات.
يمثل الذكاء الاصطناعى العام بشكل عام تحديات سرية مهمة. مثل معهد جامعة ستانفورد للذكاء الاصطناعي يتركز على الرجل (Stanford Hai) يلاحظ ، مشاكل سرية البيانات والإنترنت ليست جديدة ، ولكن الذكاء الاصطناعى “متحمسون للبيانات” بحيث يزيد من نطاق المخاطر.
وقال ويندي وونغ ، أستاذ العلوم السياسية بجامعة كولومبيا البريطانية التي تدرس منظمة العفو الدولية وحقوق الإنسان: “إذا قمت بتزويد نظام عبر الإنترنت ببيانات شخصية للغاية عليك ، مثل وجهك أو عملك المفضل أو لونك ، يجب عليك القيام بذلك مع فهم أن هذه البيانات ليست مفيدة فقط للحصول على النتيجة الفورية – مثل الدمية”.
وقال وونغ إنه سيتم إرجاع هذه البيانات إلى النظام لمساعدتهم على إنشاء ردود مستقبلية.
بالإضافة إلى ذلك ، يخشى أن “اللاعبين السيئين” يمكنهم استخدام البيانات المخدوشة عبر الإنترنت لاستهداف الأشخاص ، كما يلاحظ ستانفورد هاي. في مارس ، على سبيل المثال ، مكتب المنافسة في كندا حذر من الزيادة في الاحتيال المرتبط بمنظمة العفو الدولية.
حوالي ثلثي الكنديين حاولوا استخدام أدوات الذكاء الاصطناعى التوليدي مرة واحدة على الأقل ، وفقا ل بحث جديد من مختبر وسائل التواصل الاجتماعي TMU. لكن حوالي نصف 1500 شخص قام الباحثون بسامته لم يكن لديهم أي فهم لكيفية جمع هذه الشركات أو تخزين البيانات الشخصية ، اعتمادًا على التقرير.
يقترح Gruzd ، مع هذا المختبر ، الحذر عند استخدام هذه التطبيقات الجديدة. ولكن إذا قررت التجربة ، فإنه يقترح البحث عن خيار للاختيار لاستخدام بياناتك للتدريب أو أغراض أخرى ثالثة في الإعدادات.
“إذا لم يكن هناك خيار من هذا النوع ، فقد ترغب في إعادة النظر في استخدام التطبيق ؛ وإلا ، فلا تفاجأ إذا ظهر تشابهك في سياقات غير متوقعة ، مثل الإعلانات عبر الإنترنت.”
التأثير البيئي والثقافي لمنظمة العفو الدولية
ثم هناك التأثير البيئي. CBC المراوغات والكواركات ذكرت سابقًا كيف أن أنظمة الذكاء الاصطناعى هي تقنية ذات شدة عالية الطاقة من المحتمل أن تستهلك الكثير من الكهرباء كدولة بأكملها.
أ دراسة من جامعة كورنيل يؤكد أن تشكيل نموذج لغة Openai GPT-3 في مراكز البيانات الأمريكية Microsoft يمكن أن يتبخر بشكل مباشر 700000 لتر من المياه العذبة النظيفة ، على سبيل المثال. اعتبر جولدمان ساكس أن الذكاء الاصطناعي سوف يؤدي إلى زيادة بنسبة 160 ٪ في الطلب على الطاقة من مركز البيانات.
إن الطاقة اللازمة لتوليد ذكاء الاصطناعي تترك وراءها بصمة كربونية مهمة ، ولكنها تستخدم أيضًا بشكل متزايد كأداة للعمل المناخي. تنهار Nicole Mortillao de CBC حيث تظهر IA وطرق التكنولوجيا المبتكرة لمساعدة الكوكب.
يتطلب مسألة chatppt المتوسطة 10 مرات طاقة أكثر من أبحاث Google ، وفقًا لتقديرات معينة.
حتى الرئيس التنفيذي لشركة Openai Sam Altman عبر عن قلقه بشأن شعبية توليد الصور ، حيث كان يكتب على X الشهر الماضي أنه اضطر إلى تقديم حدود معينة مؤقتًا أثناء عمله على جعلها أكثر فاعلية لأن وحدات معالجة الرسوم الخاصة به كانت “ذابت”.
إنه لأمر ممتع للغاية أن نرى أن الأشخاص يحبون الصور في ChatGPT.
لكن معالجة الرسومات الخاصة بنا تذوب.
سنقوم مؤقتًا بتقديم حدود أسعار معينة أثناء عملنا لجعلها أكثر فاعلية. نأمل ألا يمر وقت طويل!
سيحصل مستوى ChatGPT المجاني قريبًا على 3 أجيال يوميًا.
وفي الوقت نفسه ، في حين أن الدمى التي تم إنشاؤها بواسطة الذكاء الاصطناعى تتحكم في تدفقات وسائل التواصل الاجتماعي لدينا ، يتم نشر نسخة أيضًا من قبل الفنانين المعنيين تخفيض قيمة عملهمباستخدام علامة التجزئة #StarterPacknoai.
لقد أثيرت المخاوف بالفعل حول أحدث اتجاه منظمة العفو الدولية ، حيث أنشأ المستخدمون صورًا لأنفسهم بأسلوب استوديو الرسوم المتحركة في طوكيو جيبلي – وأطلقوا نقاشًا حول إمكانية سرقة عمل الفنانين البشريين.
ومع ذلك ، على الرغم من المخاوف ، يقول Guzdial أن هذه الأنواع من الاتجاهات إيجابية – لشركات الذكاء الاصطناعى التي تحاول تطوير قواعد المستخدم الخاصة بها. وقال إن هذه النماذج مكلفة للغاية للتدريب ومواصلة الجري ، ولكن إذا استخدمها عدد كاف من الأشخاص والاعتماد عليها ، فيمكن للشركات زيادة أسعار الاشتراك.
“هذا هو السبب في أن هذه الأنواع من الاتجاهات جيدة جدًا لهذه الشركات العميقة باللون الأحمر.”