أخبار التقنية

الكتاب المقدس يوم القيامة لمنظمة العفو الدولية هو كتاب عن القنبلة الذرية

[ad_1]

باحثو الذكاء الاصطناعي قد يتساءل ما إذا كانوا في سباق تسلح في العصر الحديث لأنظمة ذكاء اصطناعي أكثر قوة. إذا كان الأمر كذلك ، فمن بين؟ الصين والولايات المتحدة – أم حفنة من المختبرات التي يوجد معظمها في الولايات المتحدة تعمل على تطوير هذه الأنظمة؟

قد لا يهم. درس واحد من صنع الذرة قنبلة هي أن السباقات المتخيلة هي محفز قوي مثل السباقات الحقيقية. إذا ساد الهدوء معمل الذكاء الاصطناعي ، فهل هذا لأنه يكافح لدفع العلم إلى الأمام ، أم أنه علامة على أن شيئًا رئيسيًا في الطريق؟

عندما أصدرت OpenAI ChatGPT في نوفمبر 2022 ، أعلنت إدارة Google عن وضع رمز أحمر لاستراتيجية الذكاء الاصطناعي الخاصة بها ، وضاعفت المعامل الأخرى جهودها لجلب المنتجات إلى الجمهور. يقول ديفيد مانهايم ، رئيس السياسات والأبحاث في جمعية الوجود والصمود في إسرائيل: “من الواضح أن الاهتمام (أوبن إيه آي) قد خلق مستوى معينًا من ديناميكيات العرق”.

يمكن أن تساعد المزيد من الشفافية بين الشركات في تجنب مثل هذه الديناميكيات. أبقت الولايات المتحدة مشروع مانهاتن سرا عن الاتحاد السوفيتي ، وأبلغت حليفتها فقط بسلاحها الجديد المدمر بعد أسبوع من اختبار ترينيتي. في مؤتمر بوتسدام في 24 يوليو 1945 ، تجاهل الرئيس ترومان مترجمه وتوجه إلى رئيس الوزراء السوفيتي ليخبره بالأخبار. بدا جوزيف ستالين غير متأثر بهذا الوحي ، واكتفى بالقول إنه يأمل في أن تستخدم الولايات المتحدة السلاح ضد اليابانيين. في محاضرات ألقاها بعد حوالي 20 عامًا ، أشار أوبنهايمر إلى أن هذه هي اللحظة التي فقد فيها العالم فرصة تجنب سباق تسلح نووي مميت بعد الحرب.

في يوليو 2023 ، حصل البيت الأبيض على عدد قليل من الالتزامات الطوعية من مختبرات الذكاء الاصطناعي التي أشارت على الأقل إلى بعض عناصر الشفافية. وافقت سبع شركات للذكاء الاصطناعي ، بما في ذلك OpenAI و Google و Meta ، على اختبار أنظمتها من قبل خبراء داخليين وخارجيين قبل إصدارها وأيضًا مشاركة المعلومات حول إدارة مخاطر الذكاء الاصطناعي مع الحكومات والمجتمع المدني والأوساط الأكاديمية.

ولكن إذا كانت الشفافية أمرًا بالغ الأهمية ، فيجب على الحكومات أن تكون محددة بشأن أنواع الأخطار التي تحمي منها. على الرغم من أن القنابل الذرية الأولى كانت “ذات قوة تدميرية غير عادية” – على حد تعبير ترومان – فإن نوع الدمار الذي يمكن أن تحدثه على مستوى المدينة لم يكن معروفًا تمامًا خلال الحرب. في ليالي 9 و 10 مارس 1945 ، أسقطت القاذفات الأمريكية أكثر من 2000 طن من القنابل الحارقة على طوكيو في غارة قتلت أكثر من 100000 من السكان – وهو عدد مماثل لقُتل في قصف هيروشيما. أحد الأسباب الرئيسية لاختيار هيروشيما وناغازاكي كأهداف للقنابل الذرية الأولى هو أنهما كانتا اثنتين من المدن اليابانية القليلة التي لم تدمرها الغارات تمامًا. اعتقد الجنرالات الأمريكيون أنه سيكون من المستحيل تقييم القوة التدميرية لهذه الأسلحة الجديدة إذا تم إسقاطها على المدن التي تم تدميرها بالفعل.

عندما زار العلماء الأمريكيون هيروشيما وناغازاكي بعد الحرب ، رأوا أن هاتين المدينتين لا تبدو مختلفة تمامًا عن المدن الأخرى التي تعرضت للقنابل الحارقة بأسلحة تقليدية أكثر. قال رودس مؤخرًا في البودكاست: “كان هناك شعور عام بأنه عندما تتمكن من خوض حرب بالأسلحة النووية أو بالردع أم لا ، فإنك ستحتاج إلى عدد غير قليل منهم للقيام بذلك بشكل صحيح”. جمعية القمر. لكن أقوى الأسلحة النووية الاندماجية التي تم تطويرها بعد الحرب كانت أقوى بآلاف المرات من الأسلحة الانشطارية التي ألقيت على اليابان. كان من الصعب حقًا تقدير مقدار الدمار المخزن خلال الحرب الباردة لمجرد أن الأسلحة النووية السابقة كانت صغيرة جدًا بالمقارنة.

هناك مشكلة من حيث الحجم عندما يتعلق الأمر بالذكاء الاصطناعي أيضًا. تهدد الخوارزميات المتحيزة وأنظمة الذكاء الاصطناعي سيئة التنفيذ بالفعل سبل العيش والحرية اليوم – لا سيما بالنسبة للأشخاص في المجتمعات المهمشة. لكن أسوأ مخاطر الذكاء الاصطناعي تكمن في مكان ما في المستقبل. ما هو الحجم الحقيقي للمخاطر التي نستعد لها – وماذا يمكننا أن نفعل حيال ذلك؟

[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى