الوجبات السريعة الرئيسية

  • وحذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، من أن “بعض الأشياء السيئة حقًا” تأتي مع الذكاء الاصطناعي، وخاصة الصور المزيفة العميقة وغيرها من “اللحظات الغريبة أو المخيفة حقًا”.
  • سرعان ما احتل تطبيق الفيديو الجديد Sora 2 من OpenAI المركز الأول في متجر تطبيقات Apple في الأيام التي تلت إطلاقه، مما يوضح مدى سرعة انتشار التكنولوجيا ذات أسلوب التزييف العميق.
  • وقال ألتمان إنه يأمل أن يتعلم المجتمع كيفية بناء حواجز الحماية قبل أن تصبح التكنولوجيا أكثر قوة.

يقدم سام ألتمان، الرئيس التنفيذي لشركة OpenAI، الشركة التي تقف وراء ChatGPT، تحذيرات صارخة بشكل غير متوقع حول تأثيرات منتجاته والمنتجات المشابهة لها.

وقال في مقابلة أجريت معه في وقت سابق من هذا العام على البث الإذاعي a16z من شركة رأس المال الاستثماري أندريسن هورويتز: “أتوقع حدوث بعض الأشياء السيئة حقًا بسبب التكنولوجيا”.

التحذير ليس افتراضيا. تمت مشاهدة مقاطع الفيديو التي تم إنشاؤها بواسطة الإصدار الجديد من Sora من OpenAI بسرعة على وسائل التواصل الاجتماعي حيث صعد التطبيق بسرعة إلى المركز الأول في متجر تطبيقات Apple (AAPL) في الولايات المتحدة. وسرعان ما ضمت وسائل التواصل الاجتماعي صورًا مزيفة من تأليف سورا تظهر مارتن لوثر كينغ جونيور وشخصيات عامة أخرى، بما في ذلك ألتمان نفسه، الذي تم تصويره على أنه متورط في أشكال مختلفة من النشاط الإجرامي. (قامت OpenAI لاحقًا بحظر المستخدمين من إنشاء مقاطع فيديو لمارتن لوثر كينغ جونيور على Sora.)

ولكن إذا كان ألتمان يتوقع حقاً حدوث “أشياء سيئة للغاية”، فلماذا تساعد شركته على ما يبدو في تسريع وصولها؟

لماذا هذا مهم بالنسبة لك

قد لا يمكن تمييز مقاطع الفيديو المزيفة التي ينتجها الذكاء الاصطناعي عن مقاطع الفيديو الحقيقية، مما قد يجعل من الصعب الوثوق بما تراه على وسائل التواصل الاجتماعي. قد تفقد الثقة في اللقطات الإخبارية أو مقاطع الفيديو الخاصة بالنصائح المالية التي تشاهدها على المنصات بشكل أسرع من قدرة شركات التكنولوجيا والجهات التنظيمية على بناء الضمانات. يستخدم المحتالون بالفعل أدوات مماثلة لإنشاء مقاطع فيديو مزيفة لاستخدامها في الاحتيال. كن حذرًا وتساءل دائمًا عن المحتوى الذي تراه على وسائل التواصل الاجتماعي قبل اعتباره حقيقة.

ألتمان: يجب علينا “التطور المشترك” مع الذكاء الاصطناعي

الأساس المنطقي الذي دفع ألتمان للمضي قدمًا في هذا الإصدار العام هو أن المجتمع يحتاج إلى اختبار قيادة.

وقال في البث الصوتي: “قريبًا جدًا، سيتعين على العالم أن يتعامل مع نماذج فيديو مذهلة يمكنها التزييف العميق لأي شخص أو عرض أي شيء يريده”.

وبدلاً من إتقان التكنولوجيا خلف الأبواب المغلقة، يرى أن المجتمع والذكاء الاصطناعي يجب أن “يتطورا معًا” – وأنه “لا يمكنك إسقاط الشيء في النهاية”. نظريته: امنح الناس فرصة التعرض المبكر حتى تتمكن المجتمعات من بناء المعايير وحواجز الحماية قبل أن تصبح هذه الأدوات أكثر قوة.

وتشمل المخاطر فقدان ما اعتبرناه منذ فترة طويلة دليلاً على الحقيقة، فقد ساعدت مقاطع الفيديو للأحداث في تغيير تاريخ العالم. لكن الجانب الإيجابي، وفقًا لألتمان، هو أننا سنكون مستعدين بشكل أفضل عندما تصل أدوات أكثر تطورًا.

تحذير

جمعت مقاطع فيديو إنكار الهولوكوست التي تم إنشاؤها باستخدام Sora 2 مئات الآلاف من الإعجابات على Instagram في غضون أيام من إطلاق التطبيق، وفقًا للتحالف العالمي ضد الكراهية والتطرف. وتقول المنظمة إن سياسات استخدام OpenAI – التي تفتقر إلى حظر محدد ضد خطاب الكراهية – ساعدت في تمكين المحتوى المتطرف من الازدهار عبر الإنترنت.

ما يقوله ألتمان يأتي بعد ذلك

لم يكن تحذير ألتمان يتعلق فقط بمقاطع الفيديو المزيفة. كان الأمر يتعلق بما يحدث عندما يقوم الكثير منا بالاستعانة بمصادر خارجية لقراراتنا لخوارزميات لا يفهمها إلا القليل من الناس.

وقال: “ما زلت أعتقد أنه ستكون هناك بعض اللحظات الغريبة أو المخيفة حقًا”، مشددًا على أن مجرد كون الذكاء الاصطناعي لم يتسبب بعد في حدث كارثي “لا يعني أنه لن يحدث أبدًا”.

وقال: “إن مليارات الأشخاص الذين يتحدثون إلى نفس الدماغ” يمكن أن يخلقوا “أشياء غريبة على المستوى المجتمعي”. وبعبارة أخرى، قد يؤدي ذلك إلى سلسلة من ردود الفعل غير المتوقعة، مما قد يؤدي إلى تحولات لاحقة في المعلومات والسياسة والثقة المجتمعية والتي تنتشر بسرعة أكبر من قدرة أي شخص على السيطرة عليها.

على الرغم من هذه التحولات الواسعة التي تؤثر علينا جميعا، جادل ألتمان ضد القواعد التنظيمية لهذه التكنولوجيا.

وقال: “ربما يكون لمعظم التنظيم الكثير من الجوانب السلبية”. على الرغم من أن ألتمان قال أيضًا إنه يدعم “اختبارات السلامة الدقيقة للغاية” لما أسماه النماذج “الخارقة للغاية”.

وقال: “أعتقد أننا سنطور بعض الحواجز حوله كمجتمع”.

شاركها.
اترك تعليقاً