الذكاء الاصطناعى ليس صادقا دائما - قضايا تكنولوجية - بوابة الشروق
الأحد 19 مايو 2024 4:43 ص القاهرة القاهرة 24°

احدث مقالات الكاتب

شارك برأيك

هل تؤيد دعوات مقاطعة بعض المطاعم التي ثبت دعمها لجنود الاحتلال؟

الذكاء الاصطناعى ليس صادقا دائما

نشر فى : الأربعاء 20 مارس 2024 - 7:50 م | آخر تحديث : الأربعاء 20 مارس 2024 - 7:50 م

نشر موقع Eurasia review مقالا للكاتب السويدى بير بايلوند، يقول فيه إن التهديد الحقيقى للذكاء الاصطناعى هو قدرته على تزييف الحقائق ونشر معلومات مضللة كأنها حقيقة لا تحمل الشك. ويوضح الكاتب أن الذكاء الاصطناعى غير مبدع بل يعمل وفق رؤى واتجاهات مبتكريه، لذا يشير الكاتب إلى حقيقة استغلال بعض الشركات التكنولوجية والحكومات خوارزميات الذكاء الاصطناعى للسيطرة على الرأى العام وتشويه المعرفة بما يخدم مصالحهم.. نعرض من المقال ما يلى:
بداية، يقول كاتب المقال إن الذكاء الاصطناعى لا يستطيع التمييز بين الحقيقة والزيف. كما أنه ليس بإمكانه إنشاء محتوى جديد بل يكرر ويعيد تجميع وصياغة ما قيل بالفعل (ولكن ربما بطرق جديدة).
يدرك الكاتب تماما أن هناك من سيختلف مع أقواله السابقة متحججا بقدرة الذكاء الاصطناعى على إنشاء أغانٍ وكلمات جديدة. الطريف فى الأمر أن هذه الحجة تثبت صحة أقوال الكاتب بطريقة ما، وهذا لأن الذكاء الاصطناعى ينتج كلمات الأغنية «الجديدة» فقط من خلال الاعتماد على بيانات كلمات الأغانى السابقة ثم يستخدم تلك المعلومات لإنشاء ما يبدو لنا أنه أغنية جديدة لا يوجد فيها أى فن ولا إبداع. إنها مجرد إعادة صياغة هيكلية لما هو موجود.
نقطة أخرى،: يعد كل من عدم القدرة على التمييز بين الحقيقة والزيف، والربط الاستقرائى بأنماط البيانات الموجودة، من المشكلات التى يمكن تخفيفها برمجيًا، ولكنها لاتزال متاحة للتلاعب.
التلاعب والترويج الإعلامى
عندما أطلقت جوجل برنامج جيمينى إيه آى «Gemini AI» فى شهر فبراير الماضى، أصبح من الواضح على الفور أن الذكاء الاصطناعى لديه أجندة خاصة. فمثلا، ظاهريا يلتزم الذكاء الاصطناعى بتنوع الأعراق والأجناس فى كل استجابة يمكن تصورها، لكنه مؤخرا رفض عرض صور للأشخاص ذوى البشرة البيضاء مما أدى إلى نشر صور تاريخية زائفة ردا على طلب أحد المستخدمين (عرض التطبيق صورا تاريخية للنازيين والآباء المؤسسين لأمريكا كأشخاص ذوى بشرة سمراء).
وقد لخص مارك أندريسن، خبير التكنولوجيا والمستثمر فى وادى السليكون، ذلك على موقع X (تويتر سابقًا)، قائلا إن الذكاء الاصطناعى ينفذ بدقة ما يطلبه منه مبتكروه، بمعنى أوضح هو يعمل كما تم تصميمه.
بعبارة أخرى، يشير الكاتب إلى أن لأنظمة الذكاء الاصطناعى تصميما يتجاوز نتائج محركات التوليد، فالاستجابات للأوامر ليست استقرائية أو توليدية تمامًا. وهذا ضرورى إلى حد ما لجعل الذكاء الاصطناعى مفيدًا: حيث يتم تطبيق المرشحات والقواعد للتأكد من أن الاستجابات التى يولدها الذكاء الاصطناعى ملائمة قانونيا وأخلاقيا، وتتناسب مع توقعات المستخدم. ونظرًا للوضع القانونى، يجب على منشئى الذكاء الاصطناعى أيضًا التأكد من أنه لا ينتهك، على سبيل المثال، قوانين الملكية الفكرية أو ينخرط فى خطاب الكراهية. لذا تم تصميم الذكاء الاصطناعى بحيث لا يفسد أو يسىء إلى مستخدميه. لكنه من الصعب التمييز برمجيا بين الرد المهين والمسىء ضمن حدود الخطاب المسموح به.
لكن ما يحدث أحيانا هو توجيه الاستجابات المتولدة إلى ما هو أبعد من مجرد ضمان الجودة. مع وجود تقنية فحص الاستجابات، من السهل جعل الذكاء الاصطناعى يدلى ببيانات من نوع معين أو دفع المستخدم فى اتجاه معين (من حيث الحقائق والتفسيرات ووجهات النظر العالمية المختارة).
وبالتالى، يمكن استخدام الذكاء الاصطناعى كأداة دعائية فعالة، وهو ما أدركته الشركات التى أنشأته والحكومات والوكالات التى تنظمه.
الأخطاء والمعلومات الزائفة
لقد رفضت الدول منذ فترة طويلة الاعتراف بأنها تستخدم الذكاء الاصطناعى التوليدى فى الدعاية لتوجيه رعاياها والسيطرة عليهم. ويرجع ذلك إلى رغبتهم فى الحفاظ على جزء من الشرعية كحكومات ديمقراطية تحكم على أساس (وليس تشكيل) آراء الناس. الدعاية لها تأثير سيئ، إنها وسيلة للسيطرة.
ومع ذلك، يقال إن أعداء الدولة ــ سواء فى الداخل أو الخارج ــ يدركون قوة الدعاية ولا يترددون فى استخدامها لإحداث الفوضى فى المجتمع الديمقراطى غير الملوث. ويزعمون أن الحكومة يجب أن تنقذهم من مثل هذا التلاعب. وبطبيعة الحال، نادرا ما يتوقف الأمر عند مجرد الدفاع. ويقول الكاتب: لقد رأينا هذا بوضوح خلال جائحة كوفيد، حيث منعت الحكومة وشركات التواصل الاجتماعى التعبير عن آراء لم تكن ضمن حدود المسموح به. فمن السهل التلاعب بالذكاء الاصطناعى لأغراض الدعاية مثلما يحدث مع خوارزميات وسائل التواصل الاجتماعى.
إذن النتيجة النهائية لذلك أنه إذا وُجهت تعليمات إلى الذكاء الاصطناعى بعدم التعليق على أشياء معينة لا يريد مبتكروه (أو المنظمون) أن يراها الناس أو يتعلموها، فلن ينتشر هذا النوع من المعلومات «غير المرغوب فيه».
وبطبيعة الحال، لا شىء يعنى أن ما يتم تقديمه للمستخدم صحيح مائة بالمائة. فى الواقع، لا يستطيع الذكاء الاصطناعى التمييز بين الحقيقى والمزيف ولكنه يولد فقط الاستجابات المتسقة مع البيانات التى تمت تغذيته بها. وهذا يترك مجالًا واسعًا لتحريف الحقيقة وجعل العالم يصدق الأكاذيب. لذلك، يمكن استخدام الذكاء الاصطناعى بسهولة لفرض السيطرة، سواء كان ذلك على دولة ما، أو على رعايا خاضعين لحكمها، أو حتى على قوة أجنبية.
التهديد الحقيقى للذكاء الاصطناعى
إذن، ما هو التهديد الحقيقى الذى يشكله الذكاء الاصطناعى؟ إن نماذج اللغات الكبيرة مثل تقنية شات جى بى تى «Chat GPT» لا يمكنها أن تتطور إلى ذكاء عام اصطناعى، حيث لا يوجد شىء يتعلق بالغربلة الاستقرائية من خلال مجموعات كبيرة من المعلومات التى تم إنشاؤها (بشريًا) والتى من شأنها أن تؤدى إلى الوعى. ويضيف الكاتب، نحن لم نكتشف حتى ما هو الوعى، لذا فإن الاعتقاد بأننا سوف نخلقه (أو أنه سينشأ بطريقة أو بأخرى من الخوارزميات التى تكتشف الارتباطات اللغوية الإحصائية فى النصوص الموجودة) هو أمر مبالغ فيه تمامًا. الذكاء العام الاصطناعى لا يزال افتراضيا.
يؤكد كاتب المقال أن أنظمة الذكاء الاصطناعى لا تهدد الاقتصاد، فهو لن يجعل البشر غير فاعلين اقتصاديا مسببا بطالة جماعية. الذكاء الاصطناعى هو رأس مال إنتاجى، تتحدد قيمته بقدرته على خدمة المستهلكين وتلبية رغباتهم. ويشبه الكاتب قيمة الذكاء الاصطناعى بالمصنع الذى إذا أُسيئ استخدامه أصبح مثل الخردة. ومع ذلك، هذا لا يعنى أن الذكاء الاصطناعى لن يكون له أى تأثير على الاقتصاد. بالطبع له تأثير لكنه ليس كبيرًا على المدى القصير كما يخشى البعض، ومن المرجح أن يكون أكبر مما نتوقع على المدى الطويل.
إن التهديد الحقيقى هو تأثير الذكاء الاصطناعى على المعلومات. ويرجع ذلك جزئيًا إلى أن الاستقراء مصدر غير مناسب للمعرفة، فالحقيقة ليست مسألة تكرار أو احتمالات إحصائية. إذن سيتم التخلص من الأدلة والنظريات التى قدمها نيكولاس كوبرنيكوس وجاليليو جاليلى باعتبارها غير محتملة (خاطئة) والاعتماد على الذكاء الاصطناعى المدرب على جميع الكتابات (الأفضل والألمع) حول مركزية الأرض فى ذلك الوقت.
ومع ذلك، ربما يمكن التغلب على هذه المشكلة عن طريق البرمجة الذكية (أى تنفيذ القواعد ــ والقيود القائمة على الحقائق ــ لمشكلة الاستقراء)، إلى حد ما. تكمن المشكلة الأكبر فى فساد ما يقدمه الذكاء الاصطناعى: المعلومات المضللة التى يوجهها منشئوه وبعض الحكومات وجماعات الضغط للسيطرة على الرأى العام.
وهذا هو الخطر الحقيقى الذى أشارت إليه الرسالة المفتوحة الشهيرة، والتى وقعها إيلون ماسك، وستيف وزنياك، وآخرون: «هل ينبغى لنا أن نسمح للآلات بإغراق قنوات المعلومات لدينا بالدعاية والكذب؟ هل يجب علينا أتمتة جميع الوظائف؟ هل يجب علينا تطوير عقول غير بشرية قد تتفوق علينا فى النهاية عددًا، وتتفوق علينا فى الذكاء، وتتقادم، وتحل محلنا؟ هل يجب أن نخاطر بفقدان السيطرة على حضارتنا؟».
جوهر القول، أن الذكاء الاصطناعى لن يحاول إبادة البشرية مثل فيلم The Terminator. ولن يجعل البشرية بطاريات بيولوجية، كما فى فيلم The Matrix. لكنه يساعد على الفوضى والتضليل إذا أسيئ استخدام وربما يجعل الحياة البشرية «منعزلة، ووحشية، وقصيرة».

ترجمة وتحرير: وفاء هانى عمر
النص الأصلى:
https://bit.ly/3TB1suQ

قضايا تكنولوجية قضايا تكنولوجية
التعليقات