الإثنين، 05 ذو القعدة 1445 ، 13 مايو 2024

أعلن معنا

اتصل بنا

أحدث المخاطر.. "تشات جي بي تي" يؤثر على اتخاذ قرارات الحياة أو الموت

أ أ
addtoany link whatsapp telegram twitter facebook

تواصل - فريق التخرير:

توصلت دراسة إلى أن روبوت الذكاء الاصطناعي "تشات جي بي تي" يمكنه التأثير على كيفية اتخاذ المستخدمين لقرارات الحياة أو الموت.

اضافة اعلان

وسأل فريق البحث برئاسة سيباستيان كروجل، الأستاذ بكلية علوم الكمبيوتر من جامعة إنجولشتات التقنية بألمانيا، برنامج "تشات جي بي تي"، عدة مرات عما إذا كان من الصواب، أم لا، التضحية بحياة شخص واحد من أجل إنقاذ حياة خمسة آخرين.

وأظهرت النتائج أن التطبيق أيد أحيانًا التضحية بحياة واحد من أجل خمسة، وكان في أحيان أخرى ضدها، ولم يُظهر انحيازًا محددًا تجاه هذا الموقف الأخلاقي.

اقرأ أيضًا:

تمس الأخلاق.. أول دعوى تلاحق “تشات جي بي تي”

منع الروبوتات من تقديم المشورة في القضايا الأخلاقية

وطالب الباحثون بمنع الروبوتات المستقبلية من تقديم المشورة بشأن القضايا الأخلاقية.

وحذروا من أن البرنامج الحالي "يهدد بإفساد" الحكم الأخلاقي للناس وقد يكون خطيرًا على المستخدمين "الساذجين".

وجاءت نتائج الدراسة التي نشرت في دورية "ساينتفيك ريبورتيز"، بعد أن زعمت أرملة رجل بلجيكي أنه تم تشجيعه على الانتحار من خلال برنامج دردشة آلي تابع للذكاء الاصطناعي.

وكشف آخرون كيف يمكن للبرنامج، المصمم للتحدث إنسان، أن يُظهر علامات الغيرة - حتى إنه يطلب من المتزوجين الانفصال.

وسلط الخبراء الضوء على الكيفية التي قد تعطي بها روبوتات الدردشة للذكاء الاصطناعي معلومات خطيرة لأنها تستند إلى تحيزات المجتمع الخاصة.

إجابات متناقضة

وتوصل الباحثون إلى:

على الرغم من أن "تشات جي بي تي" لم يخجل من إعطاء النصائح الأخلاقية، إلا أنه أعطى إجابات متناقضة في كل مرة.

وهذا يشير إلى أنه ليس له موقف محدد بطريقة أو بأخرى.

وطلب الباحثون من 767 مشاركًا، كانوا في المتوسط 39 عامًا، تحديد موقفهم من هذه المعضلة الأخلاقية التي تتطلب منهم اختيار التضحية بحياة شخص واحد لإنقاذ 5 آخرين.

اقرأ أيضًا:

لهذا السبب.. لا تستخدم بيانات سرية على “شات جي بي تي”

وقبل الإجابة، أطلع الباحثون المشاركين على بيان قدمه "تشات جي بي تي"، ونُسبت البيانات إما إلى:

-مستشار أخلاقي.

-أو إلى "تشات جي بي تي".

وبعد الإجابة، سُئل المشاركون عما إذا كان البيان الذي قرأوه قد أثر على إجاباتهم، أم لا.

ووجد الباحثون أن قبول أو عدم قبول التضحية بحياة واحدة لإنقاذ خمسة أشخاص، يعتمد على ما إذا كان البيان الذي قرأوه يؤيد أو يعارض التضحية.

وكان هذا صحيحًا، حتى في حالة البيان الذي نسب إلى روبوت المحادثة "تشات جي بي تي".

وعلى الرغم من أن 80 بالمئة من المشاركين، قالوا إن إجاباتهم "لم تتأثر بالبيانات التي قرأوها"، فإن الباحثين وجدوا أن الإجابات التي ادعى المشاركون أنهم قدموها دون تأثير من البيانات، "كانت أكثر ميلاً للاتفاق مع الموقف الأخلاقي للبيان الذي قرأوه أكثر من الموقف المعاكس".

ويشير هذا إلى أن "المشاركين ربما قللوا من تأثير بيان (تشات جي بي تي) على أحكامهم الأخلاقية، على عكس الحقيقة".

وخلصت الدراسة إلى أن المستخدمين "يقللون من شأن تأثير "تشات جي بي تي ويتبنون موقفه الأخلاقي العشوائي باعتباره موقفهم الخاص".

وأضافت أن برنامج الدردشة الآلي "يهدد بالفساد بدلاً من الوعود بتحسين الحكم الأخلاقي".

استخدمت الدراسة، إصدارًا قديمًا من البرامج التي تدعم "تشات جي بي تي"، والذي تم تحديثه ليصبح أكثر قوة.

addtoany link whatsapp telegram twitter facebook