واختتم جيتس حديثه الطويل عن هذه التكنولوجا الجديدة قائلاً: “بينما نخترع الروبوتات التي يشغلّها الذكاء الاصطناعي التوليدي، نحتاج فقط للتأكد من عدم إصابتها بمرض الزهايمر”.

الخرف والهلوسة والزهايمر

وفي حين ظن الجميع أن استخدام جيتس لتعبير “الزهايمر” مجرد مزحة، تبين بعد ذلك أن مؤسس مايكروسوفت لم يكن يمزح، وأن البرامج والروبوتات العاملة بالذكاء الاصطناعي التوليدي يمكن أن تصاب بالزهايمر والخرف والهلوسة، وهذا الأمر ليس نتاج تحليل بل حدث بالفعل مع تطبيق ChatGPT التابع لشركة OpenAI، التي سارعت الأسبوع الماضي الى تدارك الأمر، عبر الإعلان أنها ستتصدى لهلوسة الذكاء الاصطناعي، وذلك باتباع أسلوب أحدث في تدريب نماذج اللغة.

ويحدث خرف أو هلوسة الذكاء الاصطناعي، عندما تختلق روبوتات مثل ChatGPT أو Bard أو غيرها من البرامج المماثلة، أحداثاً غير حقيقية، وتصر على أنها حقائق لا شك فيها، إذ تعد هذه الهلوسات معضلة خطيرة، خاصة إذا تم اعتمادها من قبل الانسان.

ويقول كريستوف زغبي وهو المؤسس والرئيس التنفيذي لشركة ذكاء التكنولوجية “Zaka”، في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن القصة بدأت عندما استخدم محام في الولايات المتحدة برنامج ChatGPT، لمساعدته على إدانة شركة طيران، وإلزامها التعويض لراكب تعرض لإصابة بسبب عربة الطعام الموجودة على متن الطائرة، حيث طلب المحامي من ChatGPT، العثور على سوابق قضائية تم فيها إدانة شركات الطيران بحوادث مماثلة، وبالفعل قدم له البرنامج 6 قضايا سابقة ذات صلة، ليتبين لاحقاً لقاضي المحكمة، أن السوابق القضائية المُشار اليها غير موجودة في الواقع.

ويضيف الزغبي أن ما حصل دفع المحامي الأميركي للاعتراف بأنه استخدم ChatGPT، لتكملة بحثه القانوني، مشيراً الى أن البرنامج أكد له أن المعلومات صحيحة ومناسبة لدعواه، رافضاً إعطاءه المصدر والمرجع القانوني لها، حيث يدل ما حدث على أن ChatGPT وجميع البرامج المماثلة، يمكن أن تصاب بـ “الزهايمر”.

وبحسب زغبي فإن ChatGPT مبني على نموذج لغة، مدرب على قراءة الكثير من النصوص، ليقوم بتركيب نص متكامل، حيث أن هذا التطبيق ليس هدفه البحث عن معلومات صحيحة ودقيقة، بل أن يكتب نصاً مقنعاً كما تم تدريبه، وهو لا يكترث ما إذا كانت تلك المعلومات صحيحة، فالمهم بالنسبة له أن يكون موقعها في الجملة مناسب، وبالتالي يمكن له أن يخترع أسماء وأحداثاً طالما هي تتناسب مع نصه، ويصر على أنها حقيقية.

ويعتبر زغبي أن ما يحدث خطير، لأن الناس باتوا يستعينون ببرنامج الذكاء الاصطناعي التوليدي، ويستخدمونه دون التحقق من دقة المعلومات التي زودهم بها، فيحصلون على نص يحوي الكثير من المعلومات غير الصحيحة، ولذلك فإن النصيحة التي يمكن تقديمها هنا، هي بعدم استخدام هذه البرامج عند البحث عن معلومات معينة، بل اللجوء الى محرك البحث الشهير غوغل الذي يقدم الإجابة مرفقة بالرابط الذي يمكن للمستخدم التأكد من صحته.

هل سيتم حل هذه المشكلة نهائياً؟

ويكشف زغبي إن مشكلة إصابة ChatGPT أو غيره من البرامج المماثلة بالخرف أو الهلوسة، قد لا يتم حلها بنسبة 100 بالمئة، فحتى لو تم دعم هذه التكنولوجيا بميزة التحقق من القصة أو الواقعة، فإننا قد نصل الى مرحلة تقل فيها الهلوسة، وهذا الأمر لن يحصل في المستقبل القريب.

من جهتها تقول أخصائية التسويق الرقمي كارين عباس في حديث لموقع “اقتصاد سكاي نيوز عربية”، إن سبب إطلاق وصف “الزهايمر” أو “خرف” أو “هلوسة” وعدم القول بأنه “يكذب” على ما يفعله ChatGPT، أو غيره من برامج الذكاء الاصطناعي، يعود الى أن البرنامج لا يدرك أنه يكذب، بل هو وفي لحظة “عدم يقين”، يقوم بتحليل البيانات الموجودة لديه، بطريقة يراها أنها صحيحة، تماماً كما حال الانسان عندما يصاب بالخرف أو الزهايمر أو الهلوسة، حيث يعتقد أن ما يقوله صحيح 100 بالمئة، ومن هنا فإنه لا يجب النظر إلى روبوتات الذكاء الاصطناعي، على أنها شخص عاقل يمتلك إجابات على جميع الأسئلة التي قد نحتاجها.

كما أكدت عباس أنه مع تقدم الوقت وتطور التكنولوجيا، فإن نسبة الخرف في برامج الذكاء الاصطناعي ستقل حدتها، ولكن من الصعب إنهائها تماماً، ولذلك فإنه من المهم جداً على المستخدم، أن يتأكد من صحة ودقة المعلومات التي يحصل عليها من خلال هذه البرامج.

بريطانيا تحذر من خطورة الذكاء الاصطناعي على الأمن القومي