أخبار التقنية

الذكاء الاصطناعي التوليدي يجعل الشركات أكثر تعطشًا لبياناتك

[ad_1]

Zoom ، الشركة لقد تم تطبيع حضور اجتماعات العمل وأنت مرتديًا سروالك البيجامة ، وقد أُجبرت على إعادة صوت نفسها هذا الأسبوع لطمأنة المستخدمين بأنها لن تستخدم البيانات الشخصية لتدريب الذكاء الاصطناعي دون موافقتهم.

لاحظ أحد مستخدمي Hacker News المهتمين الأسبوع الماضي أن تحديثًا لشروط وأحكام Zoom في شهر مارس يبدو أنه يمنح الشركة بشكل أساسي حرية التصرف في البيانات الصوتية والفيديو وغيرها من البيانات ، وتحويلها إلى أنظمة التعلم الآلي.

نصت الشروط الجديدة على أن العملاء “يوافقون على وصول Zoom واستخدامه وجمعه وإنشائه وتعديله وتوزيعه ومعالجته ومشاركته وصيانته وتخزينه” لأغراض تشمل “التعلم الآلي أو الذكاء الاصطناعي (بما في ذلك التدريب والضبط الخوارزميات والنماذج). “

أثار الاكتشاف مقالات إخبارية نقدية و المشاركات غاضبة عير وسائل التواصل الاجتماعي. قريبا ، تراجع Zoom. يوم الإثنين ، كتب سميتا هاشم ، كبير مسؤولي المنتجات في Zoom ، منشورًا على مدونة جاء فيه: “لن نستخدم محتوى الصوت أو الفيديو أو الدردشة لتدريب نماذج الذكاء الاصطناعي الخاصة بنا دون موافقتك.” قامت الشركة أيضًا بتحديث شروطها لتقول الشيء نفسه.

تبدو هذه التحديثات مطمئنة بدرجة كافية ، ولكن بالطبع قد ينقر العديد من مستخدمي Zoom أو مسؤولي حسابات الأعمال على “موافق” للشروط دون إدراك كامل لما يقدمونه. وقد لا يكون الموظفون المطلوبون لاستخدام Zoom على دراية بالخيار الذي اتخذه صاحب العمل. يلاحظ أحد المحامين أن الشروط لا تزال تسمح لـ Zoom بجمع الكثير من البيانات دون موافقة. (لم يستجب Zoom لطلب التعليق).

يُظهر الخلاف عدم وجود حماية ذات مغزى للبيانات في وقت أدى فيه ازدهار الذكاء الاصطناعي التوليدي إلى جعل صناعة التكنولوجيا أكثر جوعًا للبيانات مما كانت عليه بالفعل. لقد أصبحت الشركات تنظر إلى الذكاء الاصطناعي التوليدي على أنه نوع من الوحش الذي يجب تغذيته بأي ثمن – حتى لو لم يكن واضحًا دائمًا ما هي البيانات المطلوبة بالضبط أو ما قد تفعله أنظمة الذكاء الاصطناعي المستقبلية.

إن صعود مولدات الصور بالذكاء الاصطناعي مثل DALL-E 2 و Midjourny ، متبوعًا بـ ChatGPT وغيرها من روبوتات الدردشة الذكية التي لا تزال معيبة ، أصبح ممكنًا بفضل كميات هائلة من بيانات التدريب – الكثير منها محمي بحقوق الطبع والنشر – التي تم إزالتها من الويب. وتتطلع جميع أنواع الشركات حاليًا إلى استخدام البيانات التي تمتلكها ، أو التي يتم إنشاؤها بواسطة عملائها ومستخدميها ، لإنشاء أدوات الذكاء الاصطناعي التوليدية.

التكبير هو بالفعل على عربة التوليد. في يونيو ، قدمت الشركة ميزتين لتوليد النصوص لتلخيص الاجتماعات وتأليف رسائل بريد إلكتروني عنها. يمكن لـ Zoom استخدام البيانات من اجتماعات الفيديو لمستخدميها لتطوير خوارزميات أكثر تعقيدًا. قد تلخص أو تحلل سلوك الأفراد في الاجتماعات ، أو ربما تقدم تشابهًا افتراضيًا لشخص ما انقطع اتصاله مؤقتًا أو لم يكن لديه وقت للاستحمام.

تكمن مشكلة جهود Zoom في الحصول على المزيد من البيانات في أنها تعكس الحالة العامة عندما يتعلق الأمر ببياناتنا الشخصية. تستفيد العديد من شركات التكنولوجيا بالفعل من معلوماتنا ، والكثير منهم مثل Zoom يبحثون الآن عن طرق لمصدر المزيد من البيانات لمشاريع الذكاء الاصطناعي التوليدية. ومع ذلك ، فإن الأمر متروك لنا ، نحن المستخدمين ، لمحاولة مراقبة ما يفعلونه.

تقول جانيت هافن ، المديرة التنفيذية لمركز الأبحاث Data and Society ، “لدى الشركات رغبة شديدة في جمع أكبر قدر ممكن من البيانات”. “هذا هو نموذج الأعمال – لجمع البيانات وإنشاء منتجات حول تلك البيانات ، أو لبيع تلك البيانات لوسطاء البيانات.”

تفتقر الولايات المتحدة إلى قانون الخصوصية الفيدرالي ، مما يترك المستهلكين أكثر عرضة لآلام الجوع المستوحى من ChatGPT مقارنة بالناس في الاتحاد الأوروبي. توفر التشريعات المقترحة ، مثل قانون خصوصية وحماية البيانات الأمريكية ، بعض الأمل في توفير قواعد اتحادية أكثر صرامة بشأن جمع البيانات واستخدامها ، كما يدعو قانون حقوق الذكاء الاصطناعي الخاص بإدارة بايدن إلى حماية البيانات افتراضيًا. لكن في الوقت الحالي ، يعد رد الفعل العام مثل ذلك ردًا على تحركات Zoom هو الطريقة الأكثر فاعلية لكبح شهية الشركات للبيانات. لسوء الحظ ، هذه ليست آلية موثوقة للقبض على كل قرار مشكوك فيه من قبل الشركات التي تحاول التنافس في الذكاء الاصطناعي.

في عصر تُبنى فيه التقنيات الجديدة الأكثر إثارة والتي حظيت بالثناء على نطاق واسع فوق جبال من البيانات التي تم جمعها من المستهلكين ، غالبًا بطرق مشكوك فيها أخلاقياً ، يبدو أن الحماية الجديدة لا يمكن أن تأتي قريبًا بما فيه الكفاية. تقول هافينز: “من المفترض أن يتخذ كل شخص خطوات لحماية نفسه”. “هذا يتناقض مع فكرة أن هذه مشكلة مجتمعية.”



[ad_2]

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى