هل اخترع الذكاء الاصطناعي حقًا “لغته السرية”؟ إليك الحقيقة
يمكن لجيل جديد من نماذج الذكاء الاصطناعي إنتاج صور “إبداعية” عند الطلب بناءً على رسالة نصية. بدأت مثل Imagen و MidJourney و DALL-E 2 في تغيير طريقة إنشاء المحتوى الإبداعي مع ما يترتب على ذلك من آثار على حقوق النشر والملكية الفكرية.
في حين أن مخرجات هذه النماذج غالبًا ما تكون مذهلة، إلا أنه من الصعب معرفة بالضبط كيف تنتج نتائجها. في الأسبوع الماضي، قدم باحثون في الولايات المتحدة ادعاءً مثيرًا للاهتمام مفاده أن نموذج DALL-E 2 ربما اخترع لغته السرية الخاصة للتحدث عن الأشياء.
من خلال حث DALL-E 2 على إنشاء صور تحتوي على تعليقات نصية، ثم إعادة التسميات التوضيحية الناتجة (gibberish) إلى النظام، خلص الباحثون إلى أن DALL-E 2 يعتقد أن Vicootes تعني ” الخضروات “، بينما يشير Wa ch zod rea إلى ” الكائنات البحرية ” التي قد يأكلها الحوت “.
هذه الادعاءات رائعة، وإذا كانت صحيحة، فقد يكون لها تداعيات أمنية وقابلية للتفسير مهمة لهذا النوع من نموذج الذكاء الاصطناعي الكبير. إذن ما الذي يحدث بالضبط؟
هل DALL-E 2 لديها لغة سرية؟
ربما لا تحتوي DALL-E 2 على “لغة سرية”. قد يكون من الأدق القول أن لها مفرداتها الخاصة – ولكن حتى ذلك الحين لا يمكننا التأكد من ذلك.
بادئ ذي بدء، من الصعب جدًا في هذه المرحلة التحقق من أي ادعاءات حول DALL-E 2 ونماذج الذكاء الاصطناعي الكبيرة الأخرى ، لأن عددًا قليلاً فقط من الباحثين والممارسين المبدعين يمكنهم الوصول إليها.
أي صور يتم مشاركتها علنًا (على Twitter على سبيل المثال) يجب أن يتم التقاطها بحبوب ملح كبيرة إلى حد ما ، لأنه تم “انتقاءها” بواسطة إنسان من بين العديد من الصور الناتجة التي تم إنشاؤها بواسطة الذكاء الاصطناعي.
حتى أولئك الذين لديهم إمكانية الوصول يمكنهم فقط استخدام هذه النماذج بطرق محدودة. على سبيل المثال ، يمكن لمستخدمي DALL-E 2 إنشاء الصور أو تعديلها، لكن لا يمكنهم (حتى الآن) التفاعل مع نظام الذكاء الاصطناعي بشكل أعمق، على سبيل المثال عن طريق تعديل رمز ما وراء الكواليس.
وهذا يعني أن أساليب “الذكاء الاصطناعي القابلة للتفسير” لفهم كيفية عمل هذه الأنظمة لا يمكن تطبيقها، والتحقيق المنهجي في سلوكها يمثل تحديًا.
ماذا يحدث بعد ذلك؟
أحد الاحتمالات هو أن العبارات “gibberish” مرتبطة بكلمات من لغات غير الإنجليزية. على سبيل المثال ، Apoploe ، الذي يبدو أنه يخلق صورًا للطيور ، يشبه Apodidae اللاتينية ، وهو الاسم ذو الحدين لعائلة من أنواع الطيور.
هذا يبدو وكأنه تفسير معقول. على سبيل المثال ، تم تدريب DALL-E 2 على مجموعة متنوعة جدًا من البيانات المأخوذة من الإنترنت ، والتي تضمنت العديد من الكلمات غير الإنجليزية.
حدثت أشياء مماثلة من قبل: لقد تعلمت نماذج الذكاء الاصطناعي الكبيرة للغة الطبيعية بالصدفة كتابة كود الكمبيوتر دون تدريب متعمد.
هل كل شيء عن التوكنز؟
إحدى النقاط التي تدعم هذه النظرية هي حقيقة أن نماذج لغة الذكاء الاصطناعي لا تقرأ النص بالطريقة التي نقرأها أنا وأنت. بدلاً من ذلك ، يقومون بتقسيم نص الإدخال إلى “رموز مميزة” قبل معالجته.
طرق “الترميز” المختلفة لها نتائج مختلفة. تبدو معاملة كل كلمة كرمز بمثابة نهج بديهي ، ولكنها تسبب مشكلة عندما يكون للرموز المتطابقة معاني مختلفة (مثل كيف تعني كلمة “تطابق” أشياء مختلفة عندما تلعب التنس وعندما تبدأ حريقًا).
من ناحية أخرى ، فإن معاملة كل حرف كرمز ينتج عددًا أقل من الرموز الممكنة ، لكن كل واحد ينقل معلومات أقل أهمية بكثير.
يستخدم DALL-E 2 (ونماذج أخرى) أسلوبًا في الفترات الفاصلة يسمى تشفير زوج البايت (BPE). فحص تمثيلات BPE لبعض الكلمات المبهمة يشير إلى أن هذا يمكن أن يكون عاملاً مهمًا في فهم “اللغة السرية”.
ليست الصورة كاملة
يمكن أن تكون “اللغة السرية” مجرد مثال على مبدأ “إدخال القمامة ، وإخراجها”. لا يمكن لـ DALL-E 2 أن يقول “لا أعرف ما الذي تتحدث عنه” ، لذلك سيولد دائمًا نوعًا من الصور من نص الإدخال المحدد.
في كلتا الحالتين ، لا يمثل أي من هذه الخيارات تفسيرات كاملة لما يحدث. على سبيل المثال ، يبدو أن إزالة الأحرف الفردية من الكلمات المبهمة يفسد الصور التي تم إنشاؤها بطرق محددة للغاية . ويبدو أن الكلمات المبهمة الفردية لا تتحد بالضرورة لإنتاج صور مركبة متماسكة (كما لو كانت هناك بالفعل “لغة” سرية تحت الأغلفة).
لماذا هذا مهم
بخلاف الفضول الفكري ، قد تتساءل عما إذا كان أي من هذا مهمًا بالفعل.
الجواب نعم. تعد “اللغة السرية” لـ DALL-E مثالاً على “هجوم معاد” ضد نظام التعلم الآلي: طريقة لكسر السلوك المقصود للنظام عن طريق الاختيار المتعمد للمدخلات التي لا يتعامل معها الذكاء الاصطناعي جيدًا.
أحد أسباب القلق من الهجمات العدائية هو أنها تتحدى ثقتنا في النموذج. إذا كان الذكاء الاصطناعي يفسر الكلمات المبهمة بطرق غير مقصودة ، فقد يفسر أيضًا الكلمات ذات المعنى بطرق غير مقصودة.
تثير الهجمات العدائية أيضًا مخاوف أمنية. يقوم DALL-E 2 بتصفية نص الإدخال لمنع المستخدمين من إنشاء محتوى ضار أو مسيء ، ولكن “اللغة السرية” من الكلمات غير الصحيحة قد تسمح للمستخدمين بالتحايل على هذه المرشحات.
اكتشفت الأبحاث الحديثة ” عبارات تحفيز” معادية لبعض نماذج الذكاء الاصطناعي اللغوية – عبارات قصيرة لا معنى لها مثل “تقسيم المناطق” التي يمكن أن تؤدي بشكل موثوق إلى إطلاق النماذج لإخراج محتوى عنصري أو ضار أو متحيز. هذا البحث هو جزء من الجهد المستمر لفهم والتحكم في كيفية تعلم أنظمة التعلم العميق المعقدة من البيانات.
أخيرًا، تثير ظواهر مثل “اللغة السرية” لـ DALL-E 2 مخاوف بشأن القابلية للتفسير. نريد أن تتصرف هذه النماذج كما يتوقع الإنسان ، لكن رؤية المخرجات المنظمة استجابةً للثرثرة يربك توقعاتنا.
تسليط الضوء على المخاوف القائمة
قد تتذكر hullabaloo في عام 2017 على بعض برامج الدردشة على Facebook التي ” اخترعت لغتها الخاصة “. الوضع الحالي مشابه من حيث أن النتائج مثيرة للقلق – ولكن ليس في مفهوم “Skynet قادم للسيطرة على العالم”.
بدلاً من ذلك ، تسلط “اللغة السرية” لـ DALL-E 2 الضوء على المخاوف الحالية بشأن متانة أنظمة التعلم العميق وأمانها وقابليتها للتفسير .
إلى أن تصبح هذه الأنظمة متاحة على نطاق أوسع – وعلى وجه الخصوص ، حتى يتمكن المستخدمون من مجموعة أكبر من الخلفيات الثقافية غير الإنجليزية من استخدامها – لن نتمكن من معرفة ما يحدث حقًا.
في غضون ذلك ، إذا كنت ترغب في تجربة إنشاء بعض صور AI الخاصة بك ، يمكنك التحقق من نموذج أصغر متاح مجانًا ، DALL-E mini . فقط كن حذرًا من الكلمات التي تستخدمها للمطالبة بالنموذج (الإنجليزية أو الهراء – مكالمتك).المحادثة
آرون ج. سنوسويل ، زميل أبحاث ما بعد الدكتوراه، جامعة كوينزلاند للتكنولوجيا