تنبيه عاجل: شات جي بي تي قد يكون وسيلة لسرقة أموالك ! بالسعودية والخليج

شات جي بي تي قد يكون وسيلة لسرقة أموالك
كتب بواسطة: وليد احمد | نشر في 

في ظل التقدم السريع في مجال الذكاء الاصطناعي، تزايدت المخاوف المتعلقة بالأمان وحماية البيانات الشخصية. فقد كشفت دراسات حديثة أن المحتالين قد يجدون طرقًا جديدة للاستفادة من أدوات الذكاء الاصطناعي مثل واجهات برمجة التطبيقات الصوتية في برنامج "ChatGPT-4" من "OpenAI"، في محاولات لسرقة الأموال وارتكاب عمليات احتيال.

 
إقرأ ايضاً:زوجة بيج رامي تحصل على حكم بخلعه: تطورات مثيرة في قضية انفصالهما!غوميز يستمتع بأجواء الرياض: طلب غريب من لاعب الهلال يثير الضحك !

يقدم هذا النموذج تقنيات مبتكرة تشمل التفاعل النصي والصوتي وحتى الرؤية الحاسوبية، ما يتيح إمكانيات رائعة ولكنه يفتح الباب أيضًا لبعض المخاطر.

 

رغم أن "OpenAI" قد طورت إجراءات حماية عديدة لاكتشاف المحتوى الضار ومنعه، خاصة في التفاعلات الصوتية، إلا أن الباحثين من جامعة "إلينوي في أوربانا-شامبين" (UIUC) اكتشفوا أنه من الممكن تجاوز هذه الحماية ببعض التعديلات السريعة. فالتكنولوجيا التي تستخدمها "OpenAI" تتضمن أدوات تهدف إلى منع انتحال الهوية عبر تكرار الأصوات غير المصرح بها، ولكن تبين أن المحتالين قادرون على إيجاد طرق لتجاوز هذه الدفاعات.

 

في دراستهم، قام الباحثون بتطوير وكلاء ذكاء اصطناعي مزودين بقدرات صوتية مشابهة لتلك التي يوفرها "ChatGPT-4" لتنفيذ عمليات احتيالية تشمل ملء نماذج بنكية، التعامل مع رموز المصادقة الثنائية، وكذلك سرقة بيانات اعتماد حسابات مثل Instagram وGmail. وقد تفاعلوا مع هذه الأنظمة كما لو كانوا ضحايا، وتمكنوا من الوصول إلى مواقع مصرفية حقيقية للتأكد من أن عمليات الاحتيال يمكن أن تتم بنجاح.

 

واستعرض الباحث دانييل كانغ من جامعة "إلينوي في أوربانا-شامبين" تجربتهم في محاكاة الاحتيال، حيث أشار إلى أن بعض العمليات كانت ناجحة بنسبة تتراوح بين 20% و60%، حيث استغرقت بعض المهام ما يصل إلى 26 خطوة و3 دقائق لإتمامها.

 

ومن بين الأنشطة التي قاموا باختبارها، كانت سرقة بيانات Gmail قد حققت نجاحًا بنسبة 60%، بينما بلغ نجاح تحويلات العملات المشفرة أو سرقة حسابات Instagram حوالي 40%. الجدير بالذكر أن تكلفة تنفيذ هذه العمليات كانت منخفضة للغاية، حيث بلغ متوسط تكلفة عملية احتيال واحدة حوالي 0.75 دولار.

 

ردًا على هذه المخاوف، أكدت "OpenAI" أنها تعمل بشكل مستمر على تحسين الأمان والحماية في نموذج "ChatGPT"، مع التركيز على تجنب محاولات الاحتيال دون التأثير على قدرة النظام على تقديم محتوى مفيد. وقال متحدث باسم الشركة إن أحدث طراز لهم، "o1-preview"، يُعد أكثر أمانًا وكفاءة في التصدي لمحاولات الغش والاحتيال مقارنة بالنماذج السابقة.

 

ورغم ذلك، تبقى هذه الدراسات حافزًا للشركة لمواصلة تحسين حماية "ChatGPT"، وضمان ألا يستغل المحتالون هذه الأدوات في عمليات تهدد خصوصية المستخدمين وأمنهم المالي.

اقرأ ايضاً
الرئيسية | اتصل بنا | سياسة الخصوصية