أخبار التقنية

لقد قام الفريق الأحمر للذكاء الاصطناعي من Microsoft بعمل القضية بنفسه بالفعل

[ad_1]

لأغلب الناس، أصبحت فكرة استخدام أدوات الذكاء الاصطناعي في الحياة اليومية – أو حتى العبث بها – سائدة فقط في الأشهر الأخيرة ، مع الإصدارات الجديدة من أدوات الذكاء الاصطناعي التوليدية من عدد كبير من شركات التكنولوجيا الكبرى والشركات الناشئة ، مثل OpenAI’s ChatGPT و Google Bard . لكن وراء الكواليس ، انتشرت التكنولوجيا لسنوات ، إلى جانب أسئلة حول أفضل السبل لتقييم وتأمين أنظمة الذكاء الاصطناعي الجديدة هذه. كشفت Microsoft يوم الاثنين عن تفاصيل حول الفريق داخل الشركة الذي تم تكليفه منذ عام 2018 بمعرفة كيفية مهاجمة منصات الذكاء الاصطناعي للكشف عن نقاط ضعفها.

في السنوات الخمس التي انقضت منذ تشكيلها ، نما فريق Microsoft AI الأحمر من ما كان في الأساس تجربة إلى فريق كامل متعدد التخصصات من خبراء التعلم الآلي والباحثين في مجال الأمن السيبراني وحتى المهندسين الاجتماعيين. تعمل المجموعة على توصيل النتائج التي توصلت إليها داخل Microsoft وعبر صناعة التكنولوجيا باستخدام اللغة التقليدية للأمن الرقمي ، لذلك ستكون الأفكار متاحة بدلاً من طلب معرفة متخصصة بالذكاء الاصطناعي لا يمتلكها العديد من الأشخاص والمؤسسات حتى الآن. لكن في الحقيقة ، خلص الفريق إلى أن أمن الذكاء الاصطناعي له اختلافات مفاهيمية مهمة عن الدفاع الرقمي التقليدي ، الأمر الذي يتطلب اختلافات في كيفية تعامل الفريق الأحمر للذكاء الاصطناعي مع عمله.

“عندما بدأنا ، كان السؤال ،” ما الذي ستفعله بشكل مختلف؟ لماذا نحتاج إلى فريق أحمر يعمل بالذكاء الاصطناعي؟ ” “ولكن إذا نظرت إلى فرق الذكاء الاصطناعي الحمراء على أنها مجرد فرق حمراء تقليدية ، وإذا كنت تأخذ فقط العقلية الأمنية ، فقد لا يكون ذلك كافيًا. علينا الآن أن ندرك الجانب المسؤول للذكاء الاصطناعي ، وهو المساءلة عن إخفاقات نظام الذكاء الاصطناعي – وبالتالي إنشاء محتوى مسيء ، وإنشاء محتوى لا أساس له. هذا هو الكأس المقدسة لتعاون الذكاء الاصطناعي الأحمر. لا يقتصر الأمر على النظر إلى الإخفاقات الأمنية فحسب ، بل أيضًا في إخفاقات الذكاء الاصطناعي المسؤولة “.

يقول شانكار سيفا كومار إن الأمر استغرق وقتًا لإبراز هذا التمييز وإثبات أن مهمة فريق الذكاء الاصطناعي الأحمر سيكون لها هذا التركيز المزدوج حقًا. يتعلق الكثير من الأعمال المبكرة بإصدار المزيد من أدوات الأمان التقليدية مثل مصفوفة التهديد لتعلم الآلة العدائية لعام 2020 ، وهو تعاون بين Microsoft ومجموعة R&D غير الربحية MITER وباحثين آخرين. في ذلك العام ، أصدرت المجموعة أيضًا أدوات أتمتة مفتوحة المصدر لاختبار أمان الذكاء الاصطناعي ، والمعروفة باسم Microsoft Counterfit. وفي عام 2021 ، نشر الفريق الأحمر إطارًا إضافيًا لتقييم المخاطر الأمنية للذكاء الاصطناعي.

بمرور الوقت ، على الرغم من ذلك ، تمكن الفريق الأحمر للذكاء الاصطناعي من التطور والتوسع حيث أصبحت الحاجة الملحة لمعالجة عيوب التعلم الآلي وإخفاقاته أكثر وضوحًا.

في إحدى العمليات المبكرة ، قام الفريق الأحمر بتقييم خدمة نشر سحابية من Microsoft تحتوي على مكون تعلم آلي. ابتكر الفريق طريقة لإطلاق هجوم رفض الخدمة على المستخدمين الآخرين للخدمة السحابية من خلال استغلال عيب سمح لهم بصياغة طلبات ضارة لإساءة استخدام مكونات التعلم الآلي وإنشاء أجهزة افتراضية بشكل استراتيجي ، وأنظمة الكمبيوتر التي تمت محاكاتها المستخدمة في السحابة . من خلال وضع الأجهزة الافتراضية بعناية في المناصب الرئيسية ، يمكن للفريق الأحمر شن هجمات “الجار الصاخب” على مستخدمي السحابة الآخرين ، حيث يؤثر نشاط أحد العملاء سلبًا على أداء عميل آخر.

[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى