مصداقية الأخبار في خطر.. والمتهم الذكاء الاصطناعي
في تحليل لبلومبرغ، بدأت مواقع الإنترنت والتواصل الاجتماعي بأن تشهد انتشار لعدد من المواقع التي تنشر الأخبار بصيغة أخبار عاجلة، تتناول عدد من القضايا السياسية والاجتماعية والاقتصادية، هذه المواقع بدأت بجذب عدد من المتابعين، الذين تفاعلوا مع هذه الأخبار، لكنهم لا يعلمون أن كل هذه الأخبار التي نشرتها هذه المواقع، تم إنشاؤها كلها من أدوات الذكاء الاصطناعي المشهورة مثل “ChatGPT” من شركة OpenAI، وأداة شركة Alphabet الحديثة “Bard”.
الشركة المتخصصة في تقييم الأخبار “NewsGuard” تتبعت هذه المواقع، لتكشف وجود 49 موقع مختلف تعمل جميعها على نشر أخبار تم كتابتها بالكامل عبر الذكاء الاصطناعي، بعضها مبني على أخبار حقيقية تم نشرها على صحف ومجلات، وبعضها الآخر تم فبركته بناء على محتوى مجهول أو فيديوهات يوتيوب مضللة.
وبالمتابعة الحثيثة لهذه المواقع، وجدت شركة “NewsGuard” خبرا على أحد المواقع يتحدث عن وفاة الرئيس الأميركي جو بايدن، وأن نائبته كاميلا هاريس هي من تقود البلاد، كما رصدت موقعا آخر يتحدث عن مقتل آلاف الجنود في حرب أوكرانيا، نقلا عن مقطع فيديو غير مؤكد تم نشره في يوتيوب.
البحث أظهر أن أغلب هذه المواقع عبارة عن ما يسمى “مزارع محتوى” وهي عبارة عن مواقع إنترنت منخفضة الجودة تديرها مصادر مجهولة تقوم بنشر منشورات لجلب الإعلانات، وتنتشر في جميع أنحاء العالم ويتم نشرها بعدة لغات، بما في ذلك الإنجليزية والبرتغالية والتاغالوغية والتايلاندية.
وبمتابعة هذه المواقع، تمكن بعضها من تحقيق عائدات عبر إعلانات من خلال نشر محتوى من واقع خرى، لكن بعضهم الآخر حاول بناء جمهور على وسائل التواصل الاجتماعي، مثل موقع لنشر السير الذاتية للمشاهير والذي يتابع صفحته على فيسبوك 124 ألف متابع، ومن خلال ارتفاع المتابعين، يمكن لهم تحقيق عائدات عبر الإعلانات.
المشكلة الحقيقية هنا تكمن في العدد الكبير من هذه الأخبار التي يصعب على الناس العاديين تمييز ما إذا كانت حقيقية أم مزيفة، وباعتبار أننا فقط في بداية عصر خدمات الذكاء الاصطناعي التي تقدم خدمات نصوص مكتوبة، فإن الأمر مرشح للتفاقم بشدة إذا لم يتم التحكم في هذه الخدمات.
الرئيس التنفيذي لشركة “NewsGuard” قال إن التقرير يظهر أهمية أن تقوم الشركات التي تظلق خدمات الذكاء الاصطناعي بتدريب ربوتاتها لعدم المساهمة في كتابة أخبار مفبركة، وأن لا يتم استخدامها في أمور سلبية كهذه.
تحركات لاحتواء المشكلة
قائمة المخاطر التي ظهرت منذ ظهور روبوتات الذكاء الاصطناعي لا تلبث أن تكبر يوما بعد يوم، وهي لا تشير إلا لأمر واحد، وهو وجوب وضع تنظيمات حكومية ورسمية تحكم العمل في هذا القطاع الذي شهد تطورا سريعا وهائلا في وقت قصير، وهو أمر خذر منه عدد لا بأس به من الخبراء على رأسهم إيلون ماسك، الذي التقى به زعيم الأغلبية الديمقراطية في مجلس الشيوخ الأميركي تشاك شومر ومشرعين آخرين الأسبوع الماضي، لمناقشة إجراءات تنظيم الذكاء الاصطناعي.
وكان ماسك من بين أشد المنتقدين للوتيرة السريعة الحالية لتطوير الذكاء الاصطناعي، ووقع خطابا مفتوحا في مارس الماضي مع معهد “Future of Life” يدعو فيه مختبرات الذكاء الاصطناعي إلى إيقاف مؤقت لمدة 6 أشهر بشأن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من برنامج “GPT-4″، في إشارة إلى أحدث نسخة من برنامج “ChatGPT”.
الأسباب والأبعاد
مخاوف المستقبل في قطاع الذكاء الاصطناعي دفعتنا في موقع اقتصاد سكاي نيوز عربية لمناقشة الأمر مع خبير الذكاء الاصطناعي والبرمجة الروبوتية إسلام شطناوي، الذي قال إن الذكاء الاصطناعي يعتبر خوارزمية أو نموذج رقمي يستطيع التعلم من الخبرة، وهذه الخبرات تأتي من كل أشكال البيانات سواء نصية أو صور أو مرئية كالفيديو، وبالتالي يستطيع خلق أنماط يتعلم منها، فإذا تم تعليمه خبرات في أمور غير قانونية أو خاطئة، فللأسف سوف يوجد طريقة لتعلم وتوليد معرفة في هذه الأمور غير القانونية أو الخاطئة، فبالتأكيد موضوع الأخبار المفبركة وتوجيه الرأي العام عبرها تعتبر من الجوانب السلبية للذكاء الاصطناعي، بنفس الطريقة التي يقوم بها شخص ما باستخدام خبراته للقيام بأمور غير قانونية أو خاطئة، وهو فعليا أمر يثير القلق لدى الكثيرين خصوصا مع انتشار أمور مثل ما يسمى بـ “التزييف العميق”، وظهور حسابات وهمية على مواقع التواصل يقف خلفها آلاف من الربوتات التي تحاول إظهار أنهم أشخاص طبيعيين للقيام بتوجيه محتوى أو معلومات معينة ونشرها لعدد كبير من الناس، كل هذه الأمثة تظهر كيف يمكن للذكاء الاصطناعي أن يبدع في القيام بهذه الأمور الخاطئة، لكن يجب الحديث أيضا عن ما يسمى بالذكاء الاصطناعي المضاد، الذي يقوم بكشف إن كانت هذه الأخبار مفبركة وتعقبها ورسم شجرة للمصادر لكشف الذكاء الاصطناعي المضلل، والتقليل بشكل كبير من أخطاره
المسؤولية والحلول
وبسؤاله عن مسؤولية هذه الأخطار والمشاكل، هل تقع على عاتق الشركات التي أطلقت هذه الخدمات؟ أم البشر الذين يستخدمونها؟ أم الحكومات التي لم تنظم القطاع حتى الآن؟ يجيب شطناوي بالقول إن المسؤلية مشتركة بين جميع ما تم ذكره، فالدول عليها أن تضع قوانين لضبط المعايير الأخلاقية وضبط مستويات الشفافية والحيادية للخوارزميات التي تدير خدمات الذكاء الاصطناعي العاملة فيها، وأن تقوم بإجراء كشف دوري على الشركات التي تقدم خدمات الذكاء الاصطناعي، وأن تقوم بإنشاء معايير تقوم عبرها بتقييم مدى التزام خوارزميات هذه الشركات بالمعايير الأخلاقية التي حددتها.
الشركات أيضا عليها أن تضمن حماية البيانات والخصوصية ومراقبة كل الجوانب السيئة التي يمكن أن تنتج عن استخدام خدماتها للذكاء الاصطناعي، والقيام بشكل دوري بفحص شفافية واستقلالية الخوارزميات التي تقوم عليها خدماتها للذكاء الاصطناعي عبر تطبيق معايير كمبادرة IEEE لضمان معايير السلامة ومستوى الأخلاقية في الخوارزميات.
ويضيف شطناوي أن المستخدم أيضا عليه مسؤولية، فإذا ما اكتشف جانب خاطئ في أنظمة الذكاء الاصطناعي يجب عليه أن يبلغ عنها ويكشفها، وأن تقوم الشركات بتشجيع الأفراد للإقبال على هذا الكشف عبر جوائز مثلا.
إسلام شطناوي ركز على أمر مهم جدا، وهو أن المشاكل التي تظهر في أنظمة الذكاء الاصطناعي مبنية على مصادر تعلم خوارزميات هذه الأنظمة، وللأسف هذه المصادر لا تقع دائما في إطار المصادر الأخلاقية أو الصحيحة، ولتلخيص الموضوع فإن الخوارزمية التي تعمل عليها أنظمة الذكاء الاصطناعي ما هي إلا مرآة لبياناتنا وليست ناتج مستقل من هذه الأنظمة.
هل القوانين ستحل الأزمة؟
وعن ما إذا كان تطبيق القوانين الحاكمة لقطاع الذكاء الاصطناعي سيقوم بحل المشاكل سابقة الذكر، قال إسلام شطناوي لموقع اقتصاد سكاي نيوز عربية إنه لا يوجد منظومة كاملة متكاملة، ودائما ما سيكون هناك أخطاء، وبالتالي يجب التعلم منها، فالهدف من هذه الأنظمة هو تقليل الأخطار والأخطاء بقدر الإمكان عبر الفحص والتحديث المستمر وتدقيق جودة مصادر تعلم الخوارزميات ومستوى توافقها مع المعايير الحكومية، هذه الإجراءات لا تضمن اختفاء الأخطاء والمشاكل بنسبة 100 بالمئة، لكنها ستضمن الوصول إلى النسخة الأمثل والأقل مشاكل في الدولة التي ستطبقها.