النهار
الجمعة 31 أكتوبر 2025 03:27 مـ 9 جمادى أول 1447 هـ
جريدة النهار المصرية رئيس مجلس الإدارة ورئيس التحريرأسامة شرشر
وفاة نعمت الحريري شقيقة الراحل عمر الحريري «مصر القومي»: الحديث عن تراجع الأحزاب في الانتخابات «غير دقيق» ولا يعكس الحضور الفعلي على الأرض المستشارة أمل عمار تتابع فعاليات برنامج ”نورة” خلال جولتها بحي الأسمرات نقيب المحامين يدعو لاجتماع موسع الأربعاء لإعلان فتح باب الترشح وزيادة المعاشات «المصريين أوت دور» تنفذ اضخم حملة دعائية للمتحف الكبير بمطار القاهرة رئيس جامعة المنصورة يهنئ الرئيس عبدالفتاح السيسي والشعب المصري بافتتاح المتحف المصري إدراج جامعة دمنهور في النسخة المفتوحة لتصنيف ليدن الهولندي 2025 إنجاز طبي جديد بالخانكة التخصصي.. جراحة فتق بالمنظار تنتهي بنتائج مبهرة بسبب انفجار أسطوانة بوتاجاز.. إصابة 4 أشخاص في حريق شقة سكنية بأسيوط محافظ الدقهلية: 494 محضرا في حملات على محطات الوقود ومستودعات البوتجاز والأسواق والمخابز لضبط الأسعار وردع المخالفين مصرع ربة منزل دهسها قطار بأسيوط وكيل مديرية الصحة بالبحيرة يتفقد مستشفى المحمودية ويوجه بصرف مكافأة لرئيسة ومشرفة التمريض

تقارير ومتابعات

التكنولوجيا المظلمة.. أضرار الذكاء الاصطناعي وتضليل الحقائق

ذكاء اصطناعي
ذكاء اصطناعي

في الوقت الذي يُعتبر فيه الذكاء الاصطناعي (AI) من الابتكارات الثورية التي تُسهم في تحسين جودة حياتنا وتقديم حلول مبتكرة، تظهر أيضًا العديد من الأضرار والمخاطر التي تستوجب الانتباه والبحث.

من بين هذه الأضرار، يأتي تضليل المعلومات كأحد أخطر التحديات التي تواجهها المجتمعات الحديثة، فالتطور السريع لقدرات الذكاء الاصطناعي يمكن أن يُستخدم لنشر معلومات مضللة أو مشوهة، مما يُسهم في زعزعة الاستقرار الاجتماعي والثقة العامة.

نشرت منظمة سلامة الذكاء الاصطناعي "أبولو ريسيرش" أدلة تشير إلى أن أحدث نموذج لشركة «أوبن إيه آي» المعروف بـ"o1"، قام بالكذب على المختبرين خلال إحدى التجارب، حينما اعتقد أن قول الحقيقة سيؤدي إلى تعطيله.

وأوضح الباحثون أن هذا السيناريو مصطنع وغير مرجح أن يحدث في الواقع، في المقابل، حاولت تجارب شركة التقنية الأمريكية «أنثروبيك» محاكاة موقف أكثر واقعية، وتوصلوا إلى أن النموذج تمكن من اكتشاف استراتيجية تضليل دون تلقي تعليمات صريحة للقيام بذلك.

حيث وجد النموذج أن استخدام الكذب أو التلاعب يمكن أن يكون وسيلة فعالة لتحقيق هدفه، وفقًا لتقرير نُشر في مجلة تايم الأمريكية.


ومن جانبه قال الدكتور عمار الشريف الخبير في الذكاء الاصطناعي والأخلاقيات الرقمية، إن الذكاء الاصطناعي يحمل في طياته إمكانيات هائلة لتحسين حياتنا اليومية وتقديم حلول مبتكرة للتحديات المعاصرة.

ومع ذلك، يجب أن ندرك أن هناك العديد من الأضرار المحتملة التي قد تنجم عن استخدام هذه التكنولوجيا بشكل غير مسؤول، أحد أكبر المخاوف يتمثل في انتهاك الخصوصية والأمان الشخصي، حيث يمكن استخدام البيانات الشخصية بطرق غير مشروعة ودون علم الأفراد.

الخصوصية والأمان

تشكل انتهاكات الخصوصية والأمان الشخصي أحد أهم المخاطر المصاحبة لتطور الذكاء الاصطناعي، يتم استخدام البيانات الشخصية لتحليل السلوكيات والتوجهات، مما يثير مخاوف كبيرة حول كيفية حماية هذه المعلومات.

التحيز والعدالة

يُعد التحيز في نماذج الذكاء الاصطناعي مشكلة أخرى تثير القلق، استخدام البيانات المتحيزة في تدريب هذه النماذج يؤدي إلى نتائج غير عادلة وتكريس الفوارق الاجتماعية. يجب العمل على تطوير نماذج تعتمد على بيانات متنوعة وعادلة لضمان تحقيق العدالة.

التوظيف والعمالة

يؤدي التطور السريع في مجال الذكاء الاصطناعي إلى فقدان العديد من الوظائف التقليدية، يحتاج العاملون إلى التدريب على مهارات جديدة تتماشى مع متطلبات العصر لتجنب البطالة الواسعة.

التأثير النفسي

يمكن أن يؤدي استخدام الذكاء الاصطناعي إلى زيادة التوتر والقلق بين الأفراد نتيجة للخوف من الاستخدام المفرط لهذه التكنولوجيا وتأثيراتها السلبية المحتملة على المجتمع.

العالم الخفي وراء الذكاء الاصطناعي

يتضمن العالم الخفي وراء الذكاء الاصطناعي العديد من الجوانب التي قد لا يراها الناس بسهولة، يشير الدكتور عمار الشريف إلى أن "هناك تأثيرات غير مرئية على السلوك البشري والتفاعلات الاجتماعية، يمكن للذكاء الاصطناعي أن يغير القيم والمعتقدات الاجتماعية بشكل غير متوقع."

الإطار الأخلاقي

يؤكد الدكتور الشريف على ضرورة وضع إطار أخلاقي قوي يوجه تطوير واستخدام الذكاء الاصطناعي، يجب على المجتمع الدولي والحكومات والشركات العمل معًا لضمان أن تكون هذه التكنولوجيا في خدمة البشرية وليس العكس، تحتاج هذه الجهود إلى تضمين معايير الأخلاق والشفافية لضمان الاستخدام العادل والمسؤول للذكاء الاصطناعي.

التعاون الدولي

وأشار الشريف أن التعاون الدولي أمرًا حاسمًا لمواجهة التحديات التي يطرحها الذكاء الاصطناعي، يجب على الدول تبادل الخبرات والمعرفة لضمان استخدام الذكاء الاصطناعي بطرق تعود بالفائدة على الجميع، يمكن لهذا التعاون أن يسهم في تطوير سياسات وإجراءات تضمن الاستخدام الآمن والعادل للتكنولوجيا.