شهد العالم خلال العقدين الأخيرين ثورة غير مسبوقة فى مجال الذكاء الاصطناعى، وأصبح حاليًا من أبرز مظاهرها تطور النماذج اللغوية الكبيرة التى تمثل طفرة فى قدرة الآلة على فهم النصوص اللغوية ومعالجتها وإنتاجها بطريقة أقرب ما تكون إلى اللغة الطبيعية التى يستخدمها الإنسان. أصبحت هذه النماذج - ممثلة فى تطبيقاتها الثلاثة الأشهر- ChatGPT، وGemini، وDeepSeek، جزءًا من حياتنا اليومية فتحولت إلى أدوات يستخدمها مئات الملايين حول العالم، وتبوأت الصدارة فى خطط الشركات العملاقة فى مجال الذكاء الاصطناعى، وأخذت مركزًا محوريًا فى اهتمام الباحثين والمطوّرين وصنّاع القرار. ولم تعد مهمة هذه النماذج تقتصر على توليد النصوص أو الرد على الأسئلة، بل تطورت لتصبح أدوات متقدمة قادرة على كتابة الأكواد البرمجية، وتقديم تحليلات معقدة، وتفسير البيانات، وإجراء حوارات طبيعية مع المستخدمين بجودة تفوق التوقعات. ومع زخم هذا التطور، ورغم تنامى أعداد المستخدمين، فهناك على الجانب الآخر نسبة كبيرة من الآراء ترفض التوسع فى استخدام هذه التطبيقات، فهى ترى أنه لا بأس من استخدامها فى الحياة العادية أو الاستعانة بها فى الرد على الاستفسارات الشخصية أو الاجتماعية أو غيرها من الأمور التى تخص المستخدم ولا تخرج عن دائرته الضيقة. أما استخدامها فى غير ذلك مثل الموضوعات التى ترتبط بالتعليم أو البحث أو التأليف والإبداع فإن ذلك خطأ جسيم «أخلاقيًا» لا يمكن قبوله أو تجاوزه.لم تظهر النماذج اللغوية الكبيرة (LLMs) فجأة، بل هى نتاج عقود من الأبحاث والتطوير فى مجال الذكاء الاصطناعى وعلوم الحاسب. رحلة هذه النماذج هى قصة تحول جذرى، بدأ من أنظمة بسيطة تعتمد على القواعد اللغوية، مرورًا باستخدام مفهوم عمل الشبكات العصبية، وصولًا إلى العصر الحالى الذى نشهد فيه نماذج قادرة على التفكير والإبداع. ففى البداية، وأتحدث هنا عن الفترة الزمنية التى امتدت من نهاية الخمسينيات وحتى الثمانينيات، حيث كانت محاولات فهم اللغة تقتصر على أنظمة وبرامج تعتمد فى الأساس على القواعد اللغوية. كان المبرمجون يكتبون قواعد معقدة لتحليل الجمل والتعامل معها، ولكن لم تكن هذه الأنظمة قادرة عل التعامل مع تعقيدات اللغة الطبيعية وتنوعها. ومع نهاية الثمانينيات ومرورًا بالتسعينيات ظهرت النماذج الإحصائية التى مثلت نقلة نوعية فى التعامل مع هذه القواعد. أما الثورة الحقيقية والنقطة المفصلية فى تطوّر هذه النماذج فيرجع تاريخها إلى عام 2017، حينما نشرت مجموعة بحثية بقيادة العالم الهندى الأصل أشيش فاسوانى (Ashish Vaswani)، من شركة Google Brain، ورقة علمية غيّرت مسار أبحاث الذكاء الاصطناعى فى هذا المجال، إذ ابتكرت تقنية الـ «Transformer» وقدمها فى الورقة البحثية الشهيرة بعنوان: «Attention is All You Need»، قدمت هذه الورقة بنية جديدة تمامًا للشبكات العصبية تسمى المحولات (Transformers). وكانت الفكرة الجوهرية لها هى آلية الانتباه (Attention Mechanism). التى تسمح للنموذج بوزن أهمية كل كلمة فى الجملة عند معالجة كلمة أخرى، بغض النظر عن المسافة بينهما. • • •بعد ظهور تقنية «المحولات»، انطلقت الشركات العالمية فى سباق محموم لبناء نماذج أكبر وأكثر تعقيدًا، ومن ثم بدأت المنتجات فى الظهور تباعًا: فمع حلول عام 2018 كان الإعلان من قبل شركة «أوبن إيه أى» عن GPT-1، وكان أول نموذج كبير يعتمد على بنية المحولات، وأظهر قدرات مدهشة فى توليد نصوص متماسكة. تلاه فى 2019 GPT-2، الذى زاد حجمه بشكل كبير، وأصبح قادرًا على كتابة مقالات وقصص تبدو وكأنها من تأليف البشر. وتوالت التطبيقات فأعلن عن GPT-3 فى 2020، الذى أصبح قادرًا على أداء مجموعة واسعة من المهام دون الحاجة إلى تدريب إضافى، مثل كتابة الأكواد البرمجية، وتلخيص النصوص، والترجمة.ونأتى لعام 2022، الذى شهد إطلاق ChatGPT وكان بمثابة نقطة تحول كبرى، حيث جعل هذه التقنية المتقدمة متاحة للجمهور العادى. أدت واجهة المحادثة البسيطة والمتقنة إلى انتشار هائل للنماذج اللغوية الكبيرة خارج الأوساط البحثية، مما أشعل سباقًا عالميًا لتطوير تطبيقات مشابهة.اليوم، نشهد تطورات متسارعة مع ظهور نماذج أكبر وأكثر ذكاءً، مثل GPT-4o وGemini، التى تتميز بقدرات متعددة الوسائط (Multimodal)، حيث يمكنها فهم النصوص والصور والصوت والفيديو معًا، وبذلك لم تعد النماذج اللغوية مجرد أداة لتوليد النصوص، بل أصبحت مساعدًا رقميًا فى العديد من المجالات، من التعليم والبحث العلمى إلى الفن والبرمجة. أما عن مستقبل هذه النماذج فهو يعد بإمكانيات غير مسبوقة، ولكنه يثير فى الوقت نفسه تساؤلات حول أخلاقيات استخدامها، وتأثيرها على سوق العمل، ومفهوم الإبداع البشرى نفسه.• • •أما عن استخدام النماذج اللغوية الكبيرة فى الأبحاث العلمية، فالذكاء الاصطناعى التوليدى يمكن أن يكون أداة فعالة للبحث والابتكار ويمكن أن يعزز التفكير النقدى والبحث، لكن استخدامه يجب أن يكون شفافًا ونزيهًا، فلا يجوز تقديم مخرجاته بوصفها عملاً أصليًا دون توثيق ولا يعفى الباحث من مسئوليته العلمية والأخلاقية. فهو فى الأساس يساعد الباحث فى تجميع المعلومات، ولكن هناك دائما احتمالية الخطأ وغياب التوثيق الأكاديمى، لذلك يُطلب من الباحثين مراجعة كل معلومة يتم الحصول عليها من النموذج اللغوى قبل استخدامها. وإذا نظرنا إلى كيفية تعامل جامعات القمة مع النماذج اللغوية الكبيرة، وأخذنا جامعتى «هارفارد» و«ماساتشوستس» للتكنولوجيا كمثال على هذه الفئة من الجامعات، فسنجد أن هناك شبه تطابق بينهما فى المبدأ العام للاستخدام وجوهره أن «الذكاء الاصطناعى التوليدى يمكن أن يكون أداة فعالة للبحث والابتكار، لكن استخدامه يجب أن يكون شفافًا ونزيهًا، ولا يعفى الباحث من مسئوليته العلمية والأخلاقية».أما عن القواعد المطبقة فى هاتين الجامعتين فهما يسمحان باستخدام النماذج اللغوية الكبيرة فى البحث العلمى، ولكن بشرطين أن يتم ذلك بشفافية كاملة، وأن تبقى المسئولية العلمية على عاتق الباحث من حيث: الإفصاح الإلزامى، والتحقق البشرى من المخرجات، ومنع الاستعانة غير المعلنة.• • •الآن لو رجعنا إلى ما كان يحدث قبل انتشار استخدام النماذج اللغوية الكبيرة فسنجد أن الباحثين والكتّاب كانوا يعتمدون على نفس المصادر السابقة تقريبًا ولكن كانوا يتعاملون معها «يدويًا» أى إنهم كانوا يجمّعونها (من كتب أو أبحاث سابقة أو معلومات على الإنترنت) ويصنفونها، ثم يستخرجون منها البيانات والمعلومات التى يحتاجونها لكتابة المقال أو البحث، مع الإشارة إليها تحت عنوان «المصادر» التى استعان بها المؤلف.ولو راجعنا كيفية عمل النماذج اللغوية الكبيرة نجدها أنها تقوم بنفس الإجراءات تقريبا ولكن الاختلاف هنا يكمن فى نقطتين أساسيتين أولاهما هى السرعة الفائقة فى الرجوع إلى المصادر المناسبة واختيار الملائم منها للموضوع وتحديد المعلومات المطلوبة وترتيبها وتصنيفها ثم كتابة الرد مع إعطاء المستخدم عدة خيارات كل هذا يتم فى مدة زمنية لا تتعدى ثوان قليلة. أما النقطة الثانية والأهم فهى الرد الذى يحصل عليه المستخدم هو فى النهاية «رد آلة ذكية» صممها إنسان وبرمجها آخر، ودربها ثالث، وبالتالى - وهذه نقطة فاصلة فى موضوعنا - فما يحصل عليه المستخدم فى النهاية هو رأى «شىء» آخر غيره. صحيح أن جزءًا كبيرًا مما سيحصل عليه عبارة عن معلومات كان سيجمعها بأساليبه المعتادة، ولكن هناك جزءًا آخر تم توليده من «آلة تم تدريبها مسبقًا»، وغالبًا ما سوف يكون أسلوب كتابة المقال وتسلسله مختلفًا عما كان سيكتبه بنفسه. وبالتالى فإن إشكالية استخدام النماذج اللغوية الكبيرة للمساعدة فى كتابة الأبحاث أو الأوراق العلمية أو خلاف ذلك، إنما تنحصر فى الأساس فى نقطة محددة وهى: قدرة الباحث أو الكاتب - الذى من المفترض أن يتحلى بالأمانة العلمية - على الاستعانة بهذه النماذج، مع ضمان أن يكون منتجه البحثى أو العلمى من صنعه.كل ما سبق هو ما يحدث حاليًا، وكمتابع فإننى أرى أنه مع تطور هذه النماذج فى ظل التنافس بين الشركات، والاستثمارات غير المسبوقة فى هذا المجال، وزيادة الاعتماد عليها من جانب المستخدمين سوف يزداد ذكاؤها «وتقمصها» شخصية مستخدمها. وأتوقع أن نصل لمرحلة ما يسمى بالوكيل الذكى أو «Intelligent Agent» وسوف يكون هذا المنتج نموذجًا لغويًا كبيرًا خامًا، يعلّمه ويدربه المستخدم، وسوف يتحول فى النهاية إلى «مثيل» للمستخدم يُحاكى سلوكه ونهجه، ويُجسّد شخصيته بكل تفاصيلها، ويُصبح بديلًا كاملًا له يحل محله ويفكر مثله ويتصرف كأنه هو. ولكن هذه قصة أخرى.
مقالات اليوم حسن المستكاوي «ديلى إكسبريس»: لا يوجد صلاح.. لا توجد مشكلة! نيفين مسعد الكتابة فى الذاكرة محمد المنشاوي ترامب والمليارديرات! من أنتم؟ محمد بصل صراع الإرادات.. وإدارة الصفقات إبراهيم العريس ما قاله شكسبير قبل نصف ألفية.. إنما الدنيا مسرح كبير! إريك شوفالييه الدبلوماسية النسوية: هيا نحشد جهودنا معًا من أجل حقوق المرأة والفتيات مواقع عربية «خوارزميات» تُنقذ الماء!
قد يعجبك أيضا
شارك بتعليقك