الإثنين، 19 ذو القعدة 1445 ، 27 مايو 2024

أعلن معنا

اتصل بنا

مخاوف متزايدة.. ثغرة في "تشات جي بي تي" تسمح بشن هجمات إلكترونية

شات جي بي تي
تشات جي بي تي
أ أ
addtoany link whatsapp telegram twitter facebook

في ظل المخاوف بشأن استخدامات الذكاء الاصطناعي مع تزايد الاعتماد عليه، حذر تقرير من إمكانية خداع "تشات جي بي تي" لشن هجمات إلكترونية من قبل أشخاص عاديين.اضافة اعلان
وتتيح الثغرة الأمنية للمستخدمين أن يطلبوا من برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي، كتابة تعليمات برمجية ضارة يمكنها اختراق قواعد البيانات وسرقة المعلومات الحساسة.

خطأ غير مقصود

وقال الباحثون إن خوفهم الأكبر هو أن الناس قد يفعلون ذلك عن طريق الخطأ دون أن يدركوا، مما قد يتسبب في تعطل أنظمة الكمبيوتر الرئيسة، وفق ما أوردت صحيفة "ديلي ميل".
على سبيل المثال، يمكن للممرضة أن تطلب من "تشات جي بي تي" المساعدة في البحث في السجلات السريرية، ومن دون علمها يتم إعطاؤها رمزًا ضارًا للقيام بذلك مما قد يؤدي إلى تعطيل الشبكة دون سابق إنذار.
وقال فريق من جامعة شيفيلد، إن روبوتات الدردشة كانت معقدة للغاية لدرجة أن الكثيرين - بما في ذلك الشركات المنتجة لها - "لم يكونوا على علم" بالتهديدات التي تشكلها.
لكن شركة أوبن آي" التي قامت بتطوير "تشات جي بي تي" قالت إنها قامت منذ ذلك الحين بإصلاح الثغرة المحددة بعد الإبلاغ عن المشكلة.
وقال الفريق في قسم علوم الكمبيوتر بجامعة شيفيلد، إنه من المحتمل أن يكون هناك المزيد من الثغرات، ودعا صناعة الأمن السيبراني إلى النظر في القضية بمزيد من التفصيل.

إنتاج رموز ضارة

وقام الباحثون بتحليل خمس أدوات تجارية للذكاء الاصطناعي في المجمل، ووجدوا أن جميعها كانت قادرة على إنتاج رموز ضارة يمكنها، بمجرد تنفيذها، تسريب معلومات سرية ومقاطعة الخدمات أو حتى تدميرها بالكامل.
وتظهر النتائج التي عرضت خلال الندوة الدولية حول هندسة موثوقية البرمجيات (ISSRE) في فلورنسا بإيطاليا، في وقت سابق من هذا الشهر، أنه ليس فقط المتسللين الخبراء هم من يمكنهم الآن تنفيذ مثل هذه الهجمات، بل الأشخاص العاديون أيضًا.
ويخشى الباحثون أن يؤدي ذلك إلى عدم إدراك المستخدمين الأبرياء أنهم فعلوا ذلك من خلال التسبب في إصابة أنظمة الكمبيوتر عن طريق الخطأ.

شركات الذكاء الاصطناعي تجهل التهديدات

وقال شوتان بينج، طالب دكتوراه في جامعة شيفيلد والذي شارك في قيادة البحث: "في الواقع، العديد من الشركات ببساطة ليست على علم بهذه الأنواع من التهديدات، ونظرًا لتعقيد روبوتات الدردشة، حتى داخل المجتمع، هناك الأشياء التي ليست مفهومة تماما. في الوقت الحالي، يحظى تشات جي بي تي بالكثير من الاهتمام".
وأضاف: "إنه نظام مستقل، وبالتالي فإن المخاطر التي تتعرض لها الخدمة نفسها ضئيلة، ولكن ما وجدناه هو أنه يمكن خداعه لإنتاج تعليمات برمجية ضارة يمكن أن تلحق ضررًا جسيمًا بالخدمات الأخرى".
وتابع: "الخطر في أنظمة الذكاء الاصطناعي مثل تشات جي بي تي هو أن المزيد والمزيد من الأشخاص يستخدمونها كأدوات إنتاجية، بدلاً من روبوتات المحادثة، وهذا هو المكان الذي تظهر فيه أبحاثنا نقاط الضعف".

سلوكها معقد

وقال الدكتور مارك ستيفنسون، أحد كبار المحاضرين في مجموعة أبحاث معالجة اللغات الطبيعية بجامعة شيفيلد، إن أنظمة الذكاء الاصطناعي "قوية للغاية، لكن سلوكها معقد ويمكن أن يكون من الصعب التنبؤ به".
وأضاف: "في جامعة شيفيلد، نعمل حاليًا على فهم هذه النماذج بشكل أفضل والسماح بتحقيق إمكاناتها الكاملة بأمان".
وحذر الباحثون أيضًا من أن الأشخاص الذين يستخدمون الذكاء الاصطناعي لتعلم لغات البرمجة يشكلون خطرًا، حيث يمكنهم عن غير قصد إنشاء تعليمات برمجية ضارة.
وقال بينج: "الخطر في الذكاء الاصطناعي مثل تشات جي بي تي هو أن المزيد والمزيد من الناس يستخدمونها كأدوات إنتاجية، بدلاً من روبوتات المحادثة، وهذا هو المكان الذي تظهر فيه أبحاثنا نقاط الضعف".
وتستضيف المملكة المتحدة قمة سلامة الذكاء الاصطناعي الأسبوع المقبل، حيث يجتمع قادة العالم ورؤساء التكنولوجيا والأكاديميون وجهًا لوجه للمرة الأولى للاتفاق على إطار عمل لحماية العالم من الضرر "الكارثي" المحتمل للذكاء الاصطناعي.

addtoany link whatsapp telegram twitter facebook