الذكاء الاصطناعي الشرير: هذه هي أخطر 20 جريمة سيخلقها الذكاء الاصطناعي

الذكاء الاصطناعي
 يخبرنا تقرير جديد عن التطبيقات الإجرامية للذكاء الاصطناعي التي يجب أن نقلق بشأنها حقًا.

من حملات التصيد المستهدفة إلى أساليب المطاردة الجديدة: هناك العديد من الطرق التي يمكن من خلالها استخدام الذكاء الاصطناعي لإحداث ضرر إذا وقع في الأيدي الخطأ. قرر فريق من الباحثين تصنيف التطبيقات الإجرامية المحتملة التي سيشهدها الذكاء الاصطناعي في الخمسة عشر عامًا القادمة ، بدءًا من التطبيقات التي يجب أن نقلق بشأنها أكثر. على رأس قائمة التهديدات الأكثر خطورة؟ التزييف العميق. 

قال الباحثون إنه باستخدام الصوت والفيديو المزيفين لانتحال شخصية شخص آخر ، يمكن أن تسبب التكنولوجيا أنواعًا مختلفة من الأضرار. تتراوح التهديدات من تشويه سمعة الشخصيات العامة للتأثير على الرأي العام ، إلى ابتزاز الأموال عن طريق انتحال شخصية طفل أو أقارب لشخص ما عبر مكالمة فيديو.

تم وضع الترتيب معًا بعد أن قام علماء من كلية لندن الجامعية (UCL) بتجميع قائمة تضم 20 جريمة تم تمكينها باستخدام الذكاء الاصطناعي بناءً على الأوراق الأكاديمية والأخبار والثقافة الشعبية ، وحصلوا على بضع عشرات من الخبراء لمناقشة خطورة كل تهديد خلال ندوة اليوم. 

طُلب من المشاركين ترتيب القائمة حسب الاهتمام ، بناءً على أربعة معايير: الضرر الذي يمكن أن تسببه ، وإمكانية الربح أو الكسب الإجرامي ، ومدى سهولة تنفيذ الجريمة ومدى صعوبة إيقافها. 

على الرغم من أن تقنية التزييف العميق قد تبدو من حيث المبدأ أقل إثارة للقلق من الروبوتات القاتلة ، على سبيل المثال ، فإن التكنولوجيا قادرة على إحداث الكثير من الأذى بسهولة بالغة ، ومن الصعب اكتشافها وإيقافها. وبالتالي ، بالنسبة للأدوات الأخرى التي تدعم الذكاء الاصطناعي ، أثبت الخبراء أن التزييف العميق هو أخطر تهديد موجود. 

هناك بالفعل أمثلة لمحتوى مزيف يقوض الديمقراطية في بعض البلدان: في الولايات المتحدة ، على سبيل المثال ، حصل مقطع فيديو مزيف لرئيسة مجلس النواب نانسي بيلوسي ، ظهرت فيه وهي مخمور ، على أكثر من 2.5 مليون مشاهدة على Facebook العام الماضي. 

وبالمثل ، استخدمت منظمة Future Advocacy البريطانية الذكاء الاصطناعي لإنشاء مقطع فيديو مزيف خلال الانتخابات العامة لعام 2019 ، والذي أظهر بوريس جونسون وجيريمي كوربين يدعمان بعضهما البعض لمنصب رئيس الوزراء. على الرغم من أن الفيديو لم يكن ضارًا ، إلا أنه شدد على إمكانية تأثير التزييف العميق على السياسة الوطنية.  

قال باحثو جامعة كاليفورنيا في لوس أنجلوس إنه كلما أصبحت تقنية التزييف العميق أكثر تعقيدًا ومصداقية ، ستزداد صعوبة هزيمتها. بينما تعمل بعض الخوارزميات بالفعل على تحديد التزييف العميق عبر الإنترنت بنجاح ، هناك العديد من الطرق غير المنضبطة لنشر المواد المعدلة. حذر الباحثون في نهاية المطاف من أن هذا سيؤدي إلى عدم ثقة واسع النطاق بالمحتوى السمعي والمرئي.

خمسة تطبيقات أخرى للذكاء الاصطناعي وصلت أيضًا إلى فئة "القلق الشديد". مع اقتراب السيارات ذاتية القيادة ، تم تحديد المركبات ذاتية القيادة كآلية توصيل واقعية للمتفجرات ، أو حتى كأسلحة رعب في حد ذاتها. يمكن تحقيق نفس القدر من استخدام الذكاء الاصطناعي في تأليف الأخبار المزيفة: شدد التقرير على أن التكنولوجيا موجودة بالفعل ، ولا ينبغي التقليل من التأثير المجتمعي للدعاية.

كما أن إبقاء خبراء الذكاء الاصطناعي مستيقظين ليلاً هي التطبيقات التي ستكون منتشرة لدرجة أن هزيمتهم سيكون شبه مستحيل. هذا هو الحال بالنسبة لهجمات التصيد المزودة بالذكاء الاصطناعي ، على سبيل المثال ، والتي سيتم ارتكابها عبر رسائل ماكرة سيكون من المستحيل تمييزها عن الواقع. مثال آخر هو الابتزاز واسع النطاق ، الذي تم تمكينه من خلال قدرة الذكاء الاصطناعي على جمع مجموعات كبيرة من البيانات الشخصية والمعلومات من وسائل التواصل الاجتماعي. 

أخيرًا ، أشار المشاركون إلى تكاثر أنظمة الذكاء الاصطناعي المستخدمة في التطبيقات الرئيسية مثل السلامة العامة أو المعاملات المالية - وإلى الفرص العديدة التي تمثلها للهجوم. قد يؤدي تعطيل مثل هذه الأنظمة التي يتحكم فيها الذكاء الاصطناعي ، لدوافع إجرامية أو إرهابية ، إلى انقطاع التيار الكهربائي على نطاق واسع ، وانهيار الخدمات اللوجستية الغذائية ، والفوضى الشاملة في جميع أنحاء البلاد.

وصف باحثو جامعة لندن الجامعية بعض الجرائم الأخرى التي يمكن ارتكابها بمساعدة منظمة العفو الدولية بأنها "مقلقة بدرجة معتدلة". من بينها بيع تقنية "زيت الثعبان" الاحتيالية للذكاء الاصطناعي للخدمات الشائعة مثل كشف الكذب أو الفحص الأمني ​​، أو الهجمات الإلكترونية المتطورة القائمة على التعلم ، والتي يمكن للذكاء الاصطناعي من خلالها بسهولة التحقق من نقاط الضعف في العديد من الأنظمة.

يمكن القول إن العديد من الجرائم المذكورة هي سبب للقلق الشديد. على سبيل المثال ، تم الاستشهاد بإساءة استخدام الروبوتات العسكرية ، أو التلاعب المتعمد بقواعد البيانات لإدخال التحيز ، على أنهما مثير للقلق بدرجة متوسطة. 

ومع ذلك ، جادل الباحثون بأن مثل هذه التطبيقات تبدو صعبة للغاية للدفع على نطاق واسع في الأوقات الحالية ، أو يمكن إدارتها بسهولة ، وبالتالي لا تمثل خطرًا وشيكًا.

في أسفل التسلسل الهرمي للتهديدات ، قام الباحثون بإدراج بعض التطبيقات "ذات الاهتمام المنخفض" - جريمة الذكاء الاصطناعي الصغيرة ، إذا جاز التعبير. علاوة على المراجعات المزيفة أو الأعمال الفنية المزيفة ، يذكر التقرير أيضًا الروبوتات السطو ، وهي أجهزة صغيرة يمكن أن تتسلل إلى المنازل من خلال صناديق البريد أو اللوحات القطنية لنقل المعلومات إلى طرف ثالث.

قد تبدو روبوتات السرقة مخيفة ، لكن يمكن هزيمتها بسهولة - في الواقع ، يمكن إيقافها إلى حد كبير بواسطة صندوق بريد - ولا يمكنها التوسع. على هذا النحو ، لا يتوقع الباحثون أنها ستسبب مشاكل كبيرة في أي وقت قريب. يكمن الخطر الحقيقي ، وفقًا للتقرير ، في التطبيقات الجنائية للذكاء الاصطناعي التي يمكن مشاركتها بسهولة وتكرارها بمجرد تطويرها.  

قال ماثيو كالدويل من جامعة كاليفورنيا في لوس أنجلوس ، المؤلف الأول للتقرير: "على عكس العديد من الجرائم التقليدية ، يمكن مشاركة الجرائم في العالم الرقمي بسهولة وتكرارها وحتى بيعها ، مما يسمح بتسويق التقنيات الإجرامية وتقديم الجريمة كخدمة. وهذا يعني أن المجرمين قد يكونون قادرين على الاستعانة بمصادر خارجية للجوانب الأكثر صعوبة في الجرائم القائمة على الذكاء الاصطناعي. "

وبالتالي ، قد يكون تسويق الجريمة التي تعتمد على الذكاء الاصطناعي قاب قوسين أو أدنى. يتوقع كالدويل وفريقه ظهور "الجريمة كخدمة" (CaaS) ، والتي ستعمل جنبًا إلى جنب مع هجمات رفض الخدمة (DoS).

وستكون لبعض هذه الجرائم تداعيات أعمق من غيرها. في ما يلي الترتيب الكامل للجرائم التي تم تمكين الذكاء الاصطناعي للبحث عنها ، كما جمعها باحثو جامعة كاليفورنيا في لوس أنجلوس:

  • الجرائم المدعومة بالذكاء الاصطناعي ذات الأهمية القصوى  Deepfakes ؛ المركبات ذاتية القيادة كسلاح ؛ التصيد المخصص تعطيل الأنظمة التي يتحكم فيها الذكاء الاصطناعي ؛ ابتزاز واسع النطاق أخبار مزيفة من تأليف منظمة العفو الدولية.
  • جرائم الذكاء الاصطناعي ذات القلق المتوسط:  إساءة استخدام الروبوتات العسكرية ؛ زيت الثعبان؛ تسمم البيانات الهجمات الإلكترونية القائمة على التعلم ؛ طائرات بدون طيار هجومية مستقلة رفض الوصول إلى الأنشطة عبر الإنترنت ؛ خداع التعرف على الوجوه التلاعب بالأسواق المالية أو أسواق الأسهم.
  • جرائم الذكاء الاصطناعي ذات الأهمية المنخفضة:  الروبوتات ضد السرقة ؛ التهرب من اكتشاف الذكاء الاصطناعي ؛ مراجعات وهمية من تأليف AI ؛ المطاردة بمساعدة الذكاء الاصطناعي ؛ تزوير محتوى مثل الفن أو الموسيقى.

تعليقات