التكنولوجيا والويب

إذا تم استخدامه بشكل صحيح ، فإن الذكاء الاصطناعي التوليدي هو نعمة للأمن السيبراني – TechToday

[ad_1]

الذكاء الاصطناعي التوليدي
Adobe stock من Busra

في الكلمة الرئيسية الافتتاحية لبلاك هات يوم الأربعاء ، ركز جيف موس (AKA Dark Tangent) ، مؤسس Black Hat ، على الآثار الأمنية للذكاء الاصطناعي قبل تقديم المتحدث الرئيسي ، ماريا ماركستيدتر ، الرئيس التنفيذي ومؤسس شركة Azeria Labs. قال موس إن أبرز أحداث حدث مخترق Sin City الآخر – DEF CON 31 – مباشرة في أعقاب Black Hat ، هو تحدٍ برعاية البيت الأبيض حيث يحاول المتسللون كسر أفضل نماذج الذكاء الاصطناعي … من أجل إيجاد طرق للاحتفاظ بها منهم آمنين.

اقفز إلى:

كان تأمين الذكاء الاصطناعي أيضًا موضوعًا رئيسيًا خلال حلقة نقاشية في Black Hat في اليوم السابق: الأمن السيبراني في عصر الذكاء الاصطناعي ، استضافته شركة الأمن Barracuda. عرض الحدث بالتفصيل العديد من الموضوعات الملحة الأخرى ، بما في ذلك كيف يعمل الذكاء الاصطناعي التوليدي على إعادة تشكيل العالم والمشهد السيبراني ، والفوائد والمخاطر المحتملة المرتبطة بإضفاء الطابع الديمقراطي على الذكاء الاصطناعي ، وكيف ستؤثر الوتيرة الحثيثة لتطوير الذكاء الاصطناعي على قدرتنا على التنقل وتنظيم التكنولوجيا ، وكيف يمكن للاعبي الأمن أن يتطوروا باستخدام الذكاء الاصطناعي التوليدي لصالح المدافعين.

القبعة السوداء 2023 كلمة باراكودا الرئيسية
من اليسار إلى اليمين: فليمنج شي ، مدير التكنولوجيا في باراكودا ؛ مارك ريلاند ، مدير مكتب CISO ، AWS ؛ مايكل دانيال ، الرئيس والمدير التنفيذي في Cyber ​​Threat Alliance وقيصر الإنترنت السابق لإدارة أوباما ؛ أميت العزاري ، JSD ، المؤسس المشارك والرئيس التنفيذي في OpenPolicy وأستاذ الأمن السيبراني في جامعة كاليفورنيا في بيركلي ؛ باتريك كوغلين ، GVP لأسواق الأمان في Splunk.

هناك شيء واحد اتفق عليه جميع أعضاء اللجنة وهو أن الذكاء الاصطناعي يمثل اضطرابًا تقنيًا كبيرًا ، ولكن من المهم أيضًا أن نتذكر أن هناك تاريخًا طويلًا للذكاء الاصطناعي ، وليس فقط الأشهر الستة الماضية. قال مارك ريلاند ، مدير مكتب CISO في AWS: “ما نشهده الآن هو واجهة مستخدم جديدة أكثر من أي شيء آخر”.

من منظور السياسة ، يتعلق الأمر بفهم مستقبل السوق ، وفقًا للدكتور أميت إلعازاري ، المؤسس المشارك والرئيس التنفيذي لشركة OpenPolicy وأستاذ الأمن السيبراني في جامعة كاليفورنيا في بيركلي.

انظر: CrowdStrike at Black Hat: السرعة والتفاعل وتطور عوامل التهديد التي ترتفع في عام 2023 (TechRepublic)

قال إلعزاري: “قريبًا سترى أمرًا تنفيذيًا كبيرًا من إدارة (بايدن) يكون شاملاً مثل الأمر التنفيذي للأمن السيبراني”. “سيظهر حقًا ما كنا نتوقعه في فضاء السياسة: تقارب المتطلبات في المخاطر والمخاطر العالية ، على وجه التحديد بين خصوصية الذكاء الاصطناعي والأمن.”

وأضافت أن إدارة مخاطر الذكاء الاصطناعي ستتقارب مع متطلبات أمان الخصوصية. “يمثل ذلك فرصة مثيرة للاهتمام لشركات الأمن لتبني موقف شامل لإدارة المخاطر يتخطى هذه المجالات.”

المهاجمون والمدافعون: كيف سيؤثر الذكاء الاصطناعي التوليدي على التوازن

في حين أن هيئة المحلفين لا تزال خارج نطاق تحديد ما إذا كان المهاجمون سيستفيدون من الذكاء الاصطناعي التوليدي أكثر من المدافعين ، فإن النقص المستشري في موظفي الأمن السيبراني يمثل فرصة للذكاء الاصطناعي لسد تلك الفجوة وأتمتة المهام التي قد توفر ميزة للمدافع ، كما أشار مايكل دانيال ، الرئيس. والرئيس التنفيذي لشركة Cyber ​​Threat Alliance وقيصر الإنترنت السابق لإدارة أوباما.

انظر: الذكاء الاصطناعي للمحادثة يعزز نمو سوق مراكز الاتصال بنسبة 16٪ (TechRepublic)

قال دانيال: “لدينا نقص كبير في موظفي الأمن السيبراني”. “… إلى الحد الذي يمكنك فيه استخدام الذكاء الاصطناعي لسد الفجوة عن طريق أتمتة المزيد من المهام. سوف يسهل الذكاء الاصطناعي التركيز على العمل الذي قد يوفر ميزة “.

منظمة العفو الدولية وخط أنابيب الكود

توقع دانيال أنه بسبب اعتماد الذكاء الاصطناعي ، يمكن للمطورين خفض معدل الخطأ القابل للاستغلال في التعليمات البرمجية حتى الآن ، حيث سيكون من الصعب جدًا ، في غضون 10 سنوات ، العثور على نقاط الضعف في كود الكمبيوتر.

جادل Elazari أن خط أنابيب تطوير الذكاء الاصطناعي التوليدي – المقدار الهائل لإنشاء الكود المتضمن – يشكل سطح هجوم جديد.

“نحن ننتج الكثير من الأكواد طوال الوقت ، وإذا لم نكن أكثر ذكاءً من حيث كيفية دفع ممارسات تطوير دورة الحياة الآمنة ، فإن الذكاء الاصطناعي سوف يكرر الممارسات الحالية التي هي دون المستوى الأمثل. وهذا هو المكان الذي تتاح لنا فيه الفرصة للخبراء لمضاعفة جهودهم في تطوير دورة الحياة “.

استخدام الذكاء الاصطناعي للقيام بالأمن السيبراني للذكاء الاصطناعي

ناقش أعضاء اللجنة أيضًا كيفية ممارسة فرق الأمان للأمن السيبراني للذكاء الاصطناعي نفسه – كيف يمكنك توفير الأمان لنموذج لغة كبير؟

اقترح دانيال أننا لا نعرف بالضرورة كيفية التمييز ، على سبيل المثال ، ما إذا كان نموذج الذكاء الاصطناعي مهلوسًا ، أو ما إذا كان قد تم اختراقه أو ما إذا كان الناتج السيئ يعني تسوية متعمدة. “ليس لدينا في الواقع الأدوات اللازمة لاكتشاف ما إذا كان شخص ما قد أفسد بيانات التدريب. لذا ، حيث يتعين على الصناعة أن تكرس الوقت والجهد للدفاع عن الذكاء الاصطناعي نفسه ، سيتعين علينا أن نرى كيف يعمل “.

قال Elazari في بيئة من عدم اليقين ، كما هو الحال مع الذكاء الاصطناعي ، فإن تبني عقلية معادية سيكون أمرًا بالغ الأهمية ، وسيكون استخدام المفاهيم الحالية مثل الفريق الأحمر ، واختبار القلم ، وحتى مكافآت الأخطاء أمرًا ضروريًا.

“منذ ست سنوات ، كنت أتخيل مستقبلًا يشارك فيه مدققو الخوارزميات في مكافآت الأخطاء للعثور على مشكلات الذكاء الاصطناعي ، تمامًا كما نفعل في مجال الأمان ، وهنا نرى هذا يحدث في DEF CON ، لذلك أعتقد أن هذه ستكون فرصة لتوسيع نطاق مهنة الذكاء الاصطناعي مع الاستفادة من المفاهيم والتعلم من الأمن “.

هل سيساعد الذكاء الاصطناعي أو يعيق تنمية المواهب البشرية وملء المقاعد الشاغرة؟

قالت إلعزاري أيضًا إنها تشعر بالقلق إزاء إمكانية قيام الذكاء الاصطناعي التوليدي بإزالة مناصب المبتدئين في الأمن السيبراني.

كان الكثير من هذا العمل في كتابة العمل النصي واللغوي أيضًا نقطة دخول للمحللين. أنا قلق قليلاً من أنه مع نطاق وأتمتة إدخال الذكاء الاصطناعي التوليدي ، ستتم إزالة حتى المناصب القليلة في الإنترنت. قالت: “نحن بحاجة إلى الحفاظ على هذه المواقف”.

اقترح باتريك كوغلين ، نائب رئيس شركة Security Markets ، في شركة Splunk ، التفكير في الاضطراب التكنولوجي ، سواء كان الذكاء الاصطناعي أو أي تقنية جديدة أخرى ، كمضخم للقدرة – التكنولوجيا الجديدة تضخم ما يمكن أن يفعله الناس.

“وهذا عادة ما يكون متماثلًا: هناك الكثير من المزايا لكل من الاستخدامات الإيجابية والسلبية ،” قال. “مهمتنا هي التأكد من أنهم على الأقل يتوازنون.”

هل يعني عدد أقل من نماذج الذكاء الاصطناعي التأسيسية تحديات أمنية وتنظيمية أسهل؟

وأشار كوغلين إلى أن التكلفة والجهود المبذولة لتطوير نماذج الأساس قد تحد من انتشارها ، مما قد يجعل الأمن أقل صعوبة. وقال: “تطوير نماذج الأساس باهظ التكلفة ، لذلك هناك نوع من التركيز الطبيعي وحاجز كبير للدخول”. “لذلك ، لن تستثمر الكثير من الشركات فيها.”

وأضاف أنه نتيجة لذلك ، ستضع الكثير من الشركات بيانات التدريب الخاصة بها على رأس النماذج التأسيسية لأشخاص آخرين ، وتحصل على نتائج قوية من خلال وضع كمية صغيرة من بيانات التدريب المخصصة على نموذج عام.

قال كوغلين: “ستكون هذه هي حالة الاستخدام النموذجية”. “هذا يعني أيضًا أنه سيكون من الأسهل وجود أطر أمان وتنظيمية لأنه لن يكون هناك عدد لا يحصى من الشركات التي لديها نماذج أساسية خاصة بها لتنظيمها.”

ماذا يعني الاضطراب عندما يدخل الذكاء الاصطناعي إلى المؤسسة

بحث أعضاء اللجنة في صعوبة مناقشة مشهد التهديدات بسبب السرعة التي يتطور بها الذكاء الاصطناعي ، بالنظر إلى كيفية قيام الذكاء الاصطناعي بتعطيل خارطة طريق الابتكار التي استغرقت سنوات وليس أسابيع وشهور.

قال كوغلين: “الخطوة الأولى هي … لا تفزع”. “هناك أشياء يمكننا استخدامها من الماضي. يتمثل أحد التحديات في أننا يجب أن ندرك أن هناك قدرًا كبيرًا من الحرارة على قادة أمن المؤسسات في الوقت الحالي لإنتاج حلول نهائية وحتمية حول مشهد الابتكار سريع التغير بشكل لا يصدق. من الصعب الحديث عن مشهد التهديد بسبب السرعة التي تتقدم بها التكنولوجيا.

وذكر أيضًا أنه حتمًا ، من أجل حماية أنظمة الذكاء الاصطناعي من الاستغلال والتهيئة الخاطئة ، سنحتاج إلى فرق الأمن وتكنولوجيا المعلومات والهندسة للعمل معًا بشكل أفضل: سنحتاج إلى كسر الصوامع. قال كوغلين: “مع انتقال أنظمة الذكاء الاصطناعي إلى مرحلة الإنتاج ، حيث تعمل على تشغيل المزيد والمزيد من التطبيقات التي تواجه العملاء ، سيكون من المهم بشكل متزايد أن نقوم بتفكيك الصوامع لتعزيز الرؤية ، وضوابط العملية والوضوح لمجموعة C”.

أشار ريلاند إلى ثلاث عواقب لإدخال الذكاء الاصطناعي في المؤسسات من منظور ممارس الأمن. أولاً ، يقدم عادةً منطقة سطح هجوم جديدة ومفهومًا جديدًا للأصول الهامة ، مثل مجموعات بيانات التدريب. ثانيًا ، يقدم طريقة جديدة لفقد البيانات وتسريبها ، بالإضافة إلى مشكلات جديدة تتعلق بالخصوصية.

“وبالتالي ، يتساءل أرباب العمل عما إذا كان يجب على الموظفين استخدام ChatGPT على الإطلاق” ، كما قال ، مضيفًا أن التغيير الثالث يتعلق بالتنظيم والامتثال. “إذا تراجعنا عن الضجيج ، يمكننا أن ندرك أنه قد يكون جديدًا من حيث السرعة ، لكن الدروس المستفادة من الاضطرابات السابقة للابتكار التكنولوجي لا تزال مهمة للغاية.”

الذكاء الاصطناعي التوليدي هو نعمة للعمل والتدريب في مجال الأمن السيبراني

عندما سُئل أعضاء اللجنة عن فوائد الذكاء الاصطناعي التوليدي والنتائج الإيجابية التي يمكن أن يولدها ، قال فليمينغ شي ، كبير التكنولوجيا في Barracuda ، إن نماذج الذكاء الاصطناعي لديها القدرة على جعل التدريب في الوقت المناسب قابلاً للتطبيق باستخدام الذكاء الاصطناعي التوليدي.

قال شي ، وهو يتساءل بلاغيا عما إذا كان أي شخص يستمتع بالتدريب على الأمن السيبراني ، “مع المطالبات الصحيحة ، النوع الصحيح من البيانات للتأكد من أنه يمكنك جعلها مخصصة ، ويمكن تنفيذ التدريب بسهولة أكبر وأكثر تفاعلية”. “إذا جعلته أكثر جاذبية (باستخدام نماذج لغة كبيرة كأدوات للتفاعل مع اللغة الطبيعية) ، يمكن للناس – وخاصة الأطفال – التعلم منها. عندما يتجه الناس إلى وظيفتهم الأولى ، سيكونون أكثر استعدادًا واستعدادًا للانطلاق “.

قال دانيال إنه متفائل ، “وهو ما قد يبدو غريباً من منسق الأمن السيبراني السابق للولايات المتحدة” ، كما قال ساخرًا. “لم أكن معروفا باسم Bluebird of Happiness. بشكل عام ، أعتقد أن الأدوات التي نتحدث عنها لديها إمكانات هائلة لجعل ممارسة الأمن السيبراني أكثر إرضاءً لكثير من الناس. يمكن أن يؤدي ذلك إلى التخلص من إجهاد التنبيه للخروج من المعادلة ، وفي الواقع يجعل من السهل جدًا على البشر التركيز على الأشياء المثيرة للاهتمام حقًا “.

وقال إنه يأمل في أن تتمكن هذه الأدوات من جعل ممارسة الأمن السيبراني تخصصًا أكثر جاذبية. “يمكننا السير في المسار الغبي والسماح له بمنع الدخول إلى مجال الأمن السيبراني ، ولكن إذا استخدمناه بشكل صحيح – من خلال التفكير فيه على أنه” مساعد طيار “بدلاً من بديل – فيمكننا بالفعل توسيع مجموعة (الأشخاص الذين يدخلون الحقل) “، أضاف دانيال.

اقرأ التالي: ChatGPT vs Google Bard (2023): مقارنة متعمقة (TechRepublic)

إخلاء المسؤولية: قامت Barracuda Networks بدفع ثمن تذاكر الطيران والإقامة الخاصة بي لـ Black Hat 2023.

[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى