منوعات

تقنية الـ “تشات جي بي تي” تهدد عرش الصحافة ووظائف ذوي الياقات البيضاء!

حذر الباحث العلمي والمترجم الدكتور طارق قابيل, عضو هيئة التدريس بكلية العلوم- جامعة القاهرة, من أن ثمة تهديدات بدأت تلوح في الأفق تهدد صناعة الصحافة, وما وصفها بـ “وظائف ذوي الياقات البيضاء”.!

تأتي تحذيرات “قابيل” بعد أن استحوذ بوت الدردشة الجديد المعروف اختصارا باسم “تشات جي بي تي” أو “دردشة جي بي تي” (ChatGPT)‏، المدعوم بالذكاء الاصطناعي على إعجاب الملايين حول العالم خلال فترة قصيرة من إطلاقه.

“الشات بوت” بين الفضول والمخاوف

وأثار “الشات بوت” فضول الكثيرين، كما أثار أيضا مخاوف بعض المتخصصين لقرب فقدان وظائفهم وإحلال برامج الذكاء الاصطناعي محلهم في المستقبل القريب.

 

ولسنوات طويلة، ساد اعتقاد بين الخبراء بأن التطور التكنولوجي يمثل خطراً على وظائف العمال ذوي الياقات الزرقاء، الأقل تعليماً ورواتباً، وأنه سيحتاج لوقت طويل حتى يبدأ بتهديد وظائف ذوي الياقات البيضاء، لا سيما أولئك الذين تتضمن أعمالهم مهاماً معرفية وذهنية معقدة وتتطلب قدراً من الإبداع.

 

“تشات جي بي تي”.. والوظائف الغير محصنة

لكن بوت الدردشة “تشات جي بي تي” (ChatGPT) سرعان ما أثبت خطأ هذه الفرضية، مؤكداً خلال فترة زمنية قصيرة أنه لا توجد وظائف محصنة بالكامل ضد تأثيرات الذكاء الاصطناعي.

 

ما هو برنامج “دردشة جي بي تي” (ChatGPT)‏ الذكي؟

يقول د. طارق قابيل: “هو عبارة عن روبوت دردشة أو “شات بوت” من تطوير شركة البرمجيات “أوبن أيه آي” (OpenAI) الأمريكية، ومقرها سان فرانسيسكو، كاليفورنيا، والتي أصدرت هذه الأداة في 30 نوفمبر/ تشرين الثاني 2022، وهي أداه مجانية الاستخدام”.

الشات بوت والتعلم العميق

يضيف قابيل “يعتمد الشات بوت على نموذج لغة يستخدم التعلم العميق لإنتاج نص مشابه لكلام الإنسان. ويتميز الروبوت بمقدرته على إنشاء نص مفصل وابتكار القصائد الشعرية، إضافة إلى سمة فريدة أخرى وهي أنه يستطيع أن يتذكر التعليقات السابقة في المحادثة ويعيد سردها للمستخدم.

 

وهو نموذج أولي للدردشة الآلية قائمٌ على تقنية الذكاء الاصطناعي، ونموذج لغوي قادر على فهم اللغة الطبيعية والاستجابة باللغة الطبيعية وجرى تدريبه على كمياتٍ هائلة من النصوص عبر الانترنت وذلك حتى يستطيع التفاعل مع المستخدمين، والإجابة على أسئلة المستخدم بطريقة إبداعية وكتابة مقالات عندما يطلب منه ذلك.

 

الشات بوت والتعلم المعزز

وأشارت شركة “أوبن أيه آي” في بيانٍ لها إلى إنها اعتمدت على التعلّم المعزز القائم على الاستجابة البشرية (RLHF)، حيث قام أشخاصٌ بصياغة محادثاتٍ يؤدّون فيها دور الإنسان أحيانًا، ودور نظام ذكاء اصطناعي أحيانًا أخرى.

 

وقد تمّ تزويد المدربين بنصوصٍ معدة سلفًا ومولّدة بالذكاء الاصطناعي لمساعدتهم لتأدية أدوارهم. ومن ثم عمل الباحثون على ضبط قدرات النظام وذلك من خلال المقارنة بين مختلف الإجابات واختيار المناسب منها. وهذا ما مكّن البرنامج من الإجابة على الأسئلة، واكتشاف الأخطاء، وما إلى ذلك.

 

تشات جي بي تي يقدم تعلميات وتساؤلات

ويوفّر “تشات جي بي تي” للمستخدمين تقديم تعليمات، أو تساؤلات بسيطة ومعقّدة ليقوم بتقديم إجابات تفصيلية. ويستطيع مواصلة المحادثة والإجابة على أسئلة مرتبطة بالسؤال الرئيسي نفسه، ويعترف في حال ارتكاب خطأ.

 

ومنذ إطلاقه، استحوذ هذا النظام على الإنترنت، وبعد 5 أيام من إصداره، قال “سام آلتمان” الرئيس التنفيذي للشركة إنّ النظام الجديد قد وصل إلى أكثر من مليون مستخدم. وقد استعان به الناس للمساعدة في البرمجة، وإنشاء الوصفات، وكتابة الشعر، وغيرها من المهام.

 

البديل لـ جوجل

ويتعجب معظم المستخدمين من مدى ذكاء أصوات الروبوت المدعوم بالذكاء الاصطناعي. حتى أن البعض وصفه بأنه بديلًا لـ”جوجل”، لأنه قادر على تقديم حلول للمشكلات المعقدة بشكل مباشر.

 

اختراق الذكاء الاصطناعي وتطبيقاته في مجال الصحافة

في كلّ عام، ينشر معهد رويترز لدراسة الصحافة (RISJ) تنبؤاته حول اتجاهات الصحافة في العام الجديد، وذلك استنادًا إلى مقابلات مع قادة صناعة الأخبار حول العالم.

 

وفي تقريره لهذا العام، استطلع معهد رويترز آراء 303 من قادة الأخبار من 53 دولة أو إقليم، للوصول إلى الاتجاهات التي يجب أن ينتبه إليها الناشرون والعاملون بالصناعة في 2023.

 

وقام المشاركون بملء استبيان عبر الإنترنت بأسئلة محددة حول الهدف الاستراتيجي والرقمي في عام 2023، ومن أبرز التوقعات التي شملها التقرير حول 8 بنود مختلفة، ترسم ملامح الصحافة والإعلام في العام الجديد.

 

وحسب التقرير، فقد أصبحت أدوات النسخ بالذكاء الاصطناعي الآن روتينية في غرف الأخبار، وكشفت التطورات غير العادية في الذكاء الاصطناعي في عام 2022 عن المزيد من الفرص والتحديات للصحافة.

 

ويوفر الذكاء الاصطناعي الفرصة للناشرين لتقديم المزيد من المعلومات والتنسيقات الشخصية، للمساعدة في التعامل مع الحمل الزائد للمعلومات.

 

لكن هذه التقنيات الجديدة ستجلب أيضا أسئلة وجودية وأخلاقية، إلى جانب المزيد من المنتجات المزيفة والإباحية العميقة والوسائط الاصطناعية الأخرى.

 

الذكاء الاصطناعي التوليدي

وأظهر التقرير أن هناك اتجاه أوسع نحو ما يسمى بـ “الذكاء الاصطناعي التوليدي” الذي يتيح لأجهزة الكمبيوتر إنشاء ليس فقط الكلمات ولكن أيضًا الصور ومقاطع الفيديو وحتى العوالم الافتراضية، ويجعل “الذكاء الاصطناعي التوليدي” هذه العمليات أكثر كفاءة، غير أنه قد يتيح أيضًا استخدام مجموعة من الأصول الموجودة لإنشاء أشياء جديدة.

 

ووفقا للتقرير، سنرى هذا العام المزيد من هذه الأدوات في بؤرة اهتمام المبدعين والصحفيين وغيرهم، مما يسمح لنا بإنشاء إصدارات ونسخ جديدة من أنفسنا والآخرين والعالم من حولنا.

 

وتقوم شركات الإعلام بهدوء بدمج الذكاء الاصطناعي في منتجاتها كوسيلة لتقديم تجارب أكثر تخصيصا. ويقول ما يقرب من ثلاثة من كل عشرة (28٪) أن هذا أصبح الآن جزءا منتظما من أنشطتهم، بينما قال 39٪ آخرون إنهم يجرون تجارب في هذا المجال.

 

ومن المتوقع أن تبدأ تقنيات الذكاء الاصطناعي في التأثير على العالم الحقيقي، مما يؤدي إلى زيادة الكفاءة والأتمتة من ناحية، وتمكين إعادة دمج المحتوى بطرق مفاجئة وغير متوقعة من ناحية خرى.

 

في الوقت نفسه، نحن على أعتاب موجة جديدة من الاضطراب، فعلى الرغم أن ذلك سيساعد الشركات الإعلامية على تحقيق المزيد بموارد أقل، وفتح المجال لإنشاء وتوزيع محتوى أكثر ذكاءً، إلا أنه سيؤدي أيضًا إلى معضلات جديدة حول كيفية استخدام هذه التقنيات القوية بطريقة أخلاقية وشفافة.

 

الآثار المترتبة للذكاء الاصطناعي على الصحافة ليست واضحة تمامًا، لكن من المرجح أن يؤدي هذا التطور اللافت إلى طفرة في انتشار الوسائط الآلية أو شبه الآلية في السنوات القليلة المقبلة.

 

وسيكون إنشاء محتوى آلي له جودة عالية أسهل من أي وقت مضى، لكن سيكون من الصعب، أكثر من أي وقت مضى، فصل ما هو حقيقي عما هو مزيف أو مضلل.

 

مخاطر تقنيات الذكاء الاصطناعي

هناك عدة أسباب قد تجعل البعض يشكون في استخدام تقنيات الذكاء الاصطناعي، ومن بين هذه الأسباب: القلق من استخدام البرنامج في مأموريات سيئة مثل الحصول على معلومات حول الاحتيال وسرقة المنازل، وقدرة البرنامج على إنتاج مواد متفجرة وقنابل. وعلى الرغم من أن الشركة المطورة للبرنامج قالت إنه مدرب لرفض الأسئلة الضارة، فإن التقنية ليست مستقرة بعد ومن المحتمل أن يوجد بها ثغرات.

 

برنامج “دردشة جي بي تي”

وعلاوة على ذلك، يرى بعض الخبراء أن تطبيقات مثل برنامج “دردشة جي بي تي” قد تستولي على العديد من الوظائف التي يقوم بها البشر بعد عدة سنوات، وخاصة بعد استخدام تقنية التعلم المعزز، وهذا قد يؤدي إلى فقدان وظائف للكثيرين.

 

ومنذ صدوره، كان الباحثون يتصارعون مع القضايا الأخلاقية المحيطة باستخدامه، لأن الكثير من مخرجاته قد يكون من الصعب تمييزه عن النص المكتوب من قبل الإنسان.

 

وفي الحقيقة فقد تكون هناك عواقب وخيمة إذا لم يتمكن الناس من تحديد ما إذا كانت البحوث أو التقارير أو المقالات التي يكتبها برنامج “تشات جي بي تي” وغيره من برامج الذكاء الاصطناعي صحيحة، كما أنه قد يؤثر على المجتمع ككل وقد يعني ذلك أن قرارات السياسة المستنيرة بالبحث غير صحيحة.

 

وفي وقت سابق من هذا الشهر، أعلن المؤتمر الدولي الأربعون للتعلم الآلي، وهو مؤتمر كبير للذكاء الاصطناعي سيعقد في هونولولو، هاواي، هذا العام، أنه حظر الأوراق المكتوبة بواسطة “تشات جي بي تي” وأدوات لغة الذكاء الاصطناعي الأخرى.

ويجب ألا تركز حلول هذه المشكلات على روبوت المحادثة نفسه، بل بالأحرى على الحوافز الضارة التي تؤدي إلى مثل هذا السلوك، مثل قيام الجامعات بمراجعات التوظيف والترقية من خلال عد الأوراق دون اعتبار لجودتها أو تأثيرها.

 

مقالات ذات صلة

زر الذهاب إلى الأعلى