أخبار التقنية

داربا تطلق مسابقة لمدة عامين لبناء دفاعات إلكترونية تعمل بالذكاء الاصطناعي

[ad_1]

كجزء من مبادرة مستمرة للبيت الأبيض لجعل البرامج أكثر أمانًا ، تخطط وكالة مشاريع الأبحاث الدفاعية المتقدمة (DARPA) لإطلاق مسابقة لمدة عامين ، وهي مسابقة AI Cyber ​​Challenge ، والتي ستكلف المنافسين بتحديد وإصلاح نقاط الضعف في البرامج باستخدام منظمة العفو الدولية.

بالتعاون مع شركات الذكاء الاصطناعي الناشئة Anthropic و OpenAI ، بالإضافة إلى Microsoft و Google ، سيشمل تحدي الذكاء الاصطناعي الإلكتروني فرقًا مقرها الولايات المتحدة تتنافس للحصول على أفضل “برمجيات حيوية” آمنة – خاصة كود البنية التحتية الحيوية – باستخدام الذكاء الاصطناعي. مع قيام مؤسسة Open Source Security Foundation (OSC) التابعة لمؤسسة Linux بدور مستشار التحدي ، سيتم منح جوائز بقيمة 18.5 مليون دولار لأفضل المتسابقين.

تقول DARPA إنها ستوفر أيضًا مليون دولار لكل منها لما يصل إلى سبع شركات صغيرة ترغب في المشاركة.

قال بيري آدامز ، مدير برنامج DARPA ، الذي ابتكر برنامج AI Cyber ​​Challenge ، للصحفيين في مؤتمر صحفي أمس: “نريد إنشاء أنظمة يمكنها الدفاع تلقائيًا عن أي نوع من البرامج من الهجوم”. “تيإن المكاسب الأخيرة في الذكاء الاصطناعي ، عند استخدامها بشكل مسؤول ، لديها إمكانات ملحوظة لتأمين الكود الخاص بنا ، على ما أعتقد “.

أشار آدامز إلى أن التعليمات البرمجية مفتوحة المصدر تُستخدم بشكل متزايد في البرامج الهامة. أظهر استطلاع حديث لـ GitHub أن 97٪ من التطبيقات تستفيد من التعليمات البرمجية مفتوحة المصدر ، وأن 90٪ من الشركات تطبق أو تستخدم كود مفتوح المصدر بطريقة ما.

أدى انتشار المصادر المفتوحة إلى انفجار في الابتكار. لكنه فتح أيضًا الباب لإلحاق الضرر بنقاط الضعف والمآثر الجديدة. وجد تحليل 2023 من Synopsys أن 84٪ من قواعد الكود تحتوي على ثغرة واحدة معروفة على الأقل مفتوحة المصدر ، وأن 91٪ بها إصدارات قديمة من مكونات مفتوحة المصدر.

في عام 2022 ، زاد عدد هجمات سلسلة التوريد – الهجمات على مكونات الطرف الثالث ، مفتوحة المصدر عادةً لقاعدة كود أكبر – بنسبة 633٪ على أساس سنوي ، وفقًا لدراسة أجرتها شركة Sonatype.

في أعقاب حوادث بارزة مثل هجوم فدية Colonial Pipeline الذي أوقف شحنات الغاز والنفط في جميع أنحاء جنوب شرق الولايات المتحدة وهجوم سلسلة التوريد SolarWinds ، أصدرت إدارة بايدن هاريس العام الماضي أمرًا تنفيذيًا لتحسين سلسلة توريد البرامج. الأمن ، وإنشاء مجلس مراجعة سلامة الأمن السيبراني لتحليل الهجمات الإلكترونية وتقديم توصيات للحماية المستقبلية. وفي مايو 2022 ، انضم البيت الأبيض إلى مؤسسة Open Source Security Foundation و Linux Foundation في الدعوة للحصول على تمويل بقيمة 150 مليون دولار على مدار عامين لإصلاح مشكلات أمان المصدر المفتوح العالقة.

ولكن مع إطلاق تحدي الذكاء الاصطناعي الإلكتروني ، تعتقد إدارة بايدن بوضوح أن الذكاء الاصطناعي يلعب دورًا أكبر في الدفاع الإلكتروني.

قال آدامز: “يعد تحدي الذكاء الاصطناعي السيبراني فرصة لاستكشاف ما هو ممكن عندما يتمكن خبراء الأمن السيبراني والذكاء الاصطناعي من الوصول إلى مجموعة من الموارد المشتركة بين الشركات ذات العيار المشترك وغير المسبوق”. “إذا نجحنا ، آمل أن أرى تحدي الذكاء الاصطناعي السيبراني لا ينتج فقط الجيل التالي من أدوات الأمن السيبراني في هذا الفضاء ، ولكن يُظهر كيف يمكن استخدام الذكاء الاصطناعي لتحسين المجتمع من خلال الدفاع هنا عن دعائمه الحاسمة.”

بينما كُتب الكثير عن قدرة الذكاء الاصطناعي على المساعدة في الإنترنتالهجمات – من خلال إنشاء تعليمات برمجية ضارة ، على سبيل المثال – يعتقد بعض الخبراء أن تطورات الذكاء الاصطناعي يمكن أن تساعد في ذلك تعزيز – يقوي الدفاعات الإلكترونية للمؤسسات من خلال تمكين المتخصصين في مجال الأمن من أداء المهام الأمنية بشكل أكثر كفاءة. وفقًا لاستطلاع كرول لقادة الأعمال العالميين ، يقول أكثر من نصفهم إنهم يستخدمون الذكاء الاصطناعي الآن في أحدث جهودهم في مجال الأمن السيبراني.

فرق في تحدي الذكاء الاصطناعي السيبراني ستشارك في حدث تأهيل في ربيع 2024 ، وستتم دعوة أفضل الهدافين – حتى 20 – لمسابقة نصف النهائي في مؤتمر DEF CON السنوي في عام 2024. وسيتلقى ما يصل إلى خمسة فرق جوائز بقيمة 2 مليون دولار ويستمرون في المرحلة النهائية من المسابقة ، التي ستقام في DEF CON 2025. وسيحصل الفائزون بالمركز الأول على جوائز إضافية ، وسيحصل الفائز بالمركز الأول على 4 ملايين دولار.

يُطلب من جميع الفائزين – ولكن ليس مطلوبًا – فتح المصدر لأنظمة الذكاء الاصطناعي الخاصة بهم.

يعتمد AI Cyber ​​Challenge على تقييم النموذج الذي أعلن عنه البيت الأبيض سابقًا في EF CON لهذا العام ، والذي يهدف إلى تحديد الطرق التي يمكن من خلالها استغلال نماذج اللغة الكبيرة على غرار ChatGPT الخاص بـ OpenAI لتحقيق نوايا خبيثة – ومع أي حظ ، يمكنك الوصول في إصلاحات لتلك المآثر. سيقيس التقييم ، بالإضافة إلى ذلك ، كيفية توافق النماذج مع المبادئ والممارسات الموضحة مؤخرًا في مخطط إدارة بايدن هاريس لـ “قانون حقوق الذكاء الاصطناعي” وإطار إدارة مخاطر الذكاء الاصطناعي التابع للمعهد الوطني للمعايير والتكنولوجيا.

[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى