“الذكاء الاصطناعي ليس سوى ذكاء اصطناعي” هذه هي الرسالة المُشجعة التي بدأ بها من خبراء أمن المعلومات حديثهم آملون في وقف ارتفاع البرامج المحفزة للجريمة التي تستخدم تقنية الذكاء الاصطناعي لإعادة إنتاج الأصوات والصور بدون إذن صاحبها، ما يُعرف بـ “التزوير العميق”. ويشعر هؤلاء الخبراء بالقلق من أن يستخدم المجرمون تقنية التزوير العميق لنسب الكلمات والسلوكيات إلى أشخاص أبرياء واستخدامها في الابتزاز. وتوفر قدرة التكنولوجيا على تحوير الحقيقي والمزيف أدوات مزيفة فعّالة ونسبياً رخيصة التكلفة للمجرمين.
وفي استجابة لهذه المخاوف، يشير خبير تحويل الرقمية وأمن المعلومات زياد عبد الهادي إلى أن تطبيقات الذكاء الاصطناعي قادرة على زيادة معدل الجريمة والاحتيال. ومع ذلك، يرى أيضًا إمكانية استخدام تقنية الذكاء الاصطناعي لأغراض مضادة. ويوضح عبد الهادي أنه على الرغم من أن التزوير العميق يشكل مشكلة كبيرة، لكن الآن يمكن الإحالة عليهم إلى خبراء الاستكشاف، بفضل التطور في تطبيقات التصدي للذكاء الاصطناعي. وبالتالي، ينبغي على الأشخاص المتأثرين بالتزوير العميق البحث عن مساعدة من خبراء الجرائم الإلكترونية، بدلاً من الذعر أو الاستسلام للابتزاز. ويردد عبد الهادي أن تمييز الأصوات الحقيقية عن المستخدمة المُتناسخة أمر صعب، لكنه ليس مستحيلاً.
يجدر بالذكر أنه مع تقدم تكنولوجيا الذكاء الاصطناعي، فإن تطوير القوانين التي تضمن الاستخدام الأخلاقي لتقنية الذكاء الاصطناعي لا يزال قلقًا مستمرًا. وقد وافق نواب الاتحاد الأوروبي على تعديلات في مسودة هذه القواعد، ومن المتوقع إصدار القانون الأول في نهاية هذا العام أو في عام 2024.
يشير عبد التواب إلى أن نسخ الأصوات هي إحدى قدرات تطبيقات الذكاء الاصطناعي. ولا يتعلق الأمر بنسخ الأصوات فقط، بل يمكن أيضًا تزوير الصور والفيديوهات من خلال ما يعرف بـ deepfakes. وقد أصبح ارتفاع معدل الجريمة بسبب تقنيات الذكاء الاصطناعي حقيقة يواجهها المجتمع حيث ارتفعت الجرائم التي تمارس باستخدام التزوير العميق بنسبة 322٪ في الولايات المتحدة خلال الفترة من فبراير 2022 إلى فبراير 2023، وفقًا لخبير أمن المعلومات.
ومع ذلك، أصبح الآن من الممكن إحالة مقاطع الفيديو المفبركة إلى خبراء لاكتشاف المقاطع المنسوخة من خلال تطبيقات مضادة للتزوير في الذكاء الاصطناعي. وينصح عبد التواب المتضررين بعدم الذعر أو الخضوع للابتزاز، بل بالبحث عن مساعدة من خبراء جرائم الإنترنت. وعلى الرغم من صعوبة التمييز بين المحتوى الحقيقي والمقلد، فإن تطبيقات الكشف متاحة حالياً. على سبيل المثال، يمكن لتطبيق الكشف عن المحتوى المكتوب وتحديد نسبة صحته. وكما يتطور التطبيق في صياغة العبارات والمحتوى، كما أردف ان هذه التقنيات سيتم تطويرها للكشف عن المزيفين أيضاً على نحو مواكب للتطورات التكنولوجية.
ومع ذلك، من المهم توعية المستخدمين بعدم الثقة في أي فيديو أو مقطع صوتي أو حتى مكالمة هاتفية من شخص يعرفونه من دون توثيق صحيح. بالاضافى الى ان الوعي هو الخطوة الأولى في الحفاظ على الأمان. كما يمكن للتكنولوجيا أن تفعل الكثير في الكشف عن الجرائم التي تتضمن التزوير العميق وغيرها من أشكال الاحتيال، إلا أنه ليس من المثالي الانتظار حتى يحدث الجرم قبل اتخاذ إجراء.
ولذلك، فإن تطوير قوانين ولوائح تضمن الاستخدام الأخلاقي للذكاء الاصطناعي ضروري. وقد وافق نواب الاتحاد الأوروبي على تعديلات على مشروع القواعد الخاصة بهذه التكنولوجيا، ومن المتوقع إصدار القانون الأول في نهاية هذا العام أو خلال العام القادم. وسوف تحدد هذه القوانين المعايير اللازمة لاستخدام الذكاء الاصطناعي على أمل الحد من حوادث التزوير العميق وغيرها من الأساليب الاحتيالية.