ينكدين متفق قامت شركة الأربعاء بتدريب الذكاء الاصطناعي الخاص بها على بيانات من عدة مستخدمين دون الحصول على موافقة. نظرًا لأن LinkedIn لا يعفي سوى التدريب المستقبلي على الذكاء الاصطناعي، فليس لدى المستخدمين الآن طريقة لإلغاء الاشتراك في التدريب الذي حدث بالفعل.
في مدونة توضح تفاصيل التحديثات القادمة في 20 نوفمبر، أكد المستشار العام لشركة LinkedIn، بليك لاويت، أنه سيتم تغيير اتفاقية المستخدم وسياسة الخصوصية الخاصة بـ LinkedIn لتوضيح كيفية تشغيل البيانات الشخصية للمستخدمين بشكل أفضل للذكاء الاصطناعي.
تحت الجديد سياسة الخصوصيةيحذر موقع LinkedIn المستخدمين الآن من أنه “قد نستخدم بياناتك الشخصية… [to] إنشاء نماذج الذكاء الاصطناعي (AI) وتدريبها، وإنشاء خدماتنا وتقديمها وتخصيصها، واستخلاص الرؤى بمساعدة الذكاء الاصطناعي والأنظمة الآلية والاستدلالات حتى تكون خدماتنا أكثر صلة وإفادة لك وللآخرين.
ان الأسئلة المتداولة قد يتم جمع البيانات الشخصية في أي وقت يقوم فيه المستخدم بإنشاء الذكاء الاصطناعي أو ميزات الذكاء الاصطناعي الأخرى، وكذلك عندما يقوم المستخدم بإنشاء منشور، أو تغيير تفضيلاته، أو تعليقاته على LinkedIn، أو في أي وقت آخر باستخدام الموقع.
يتم تخزين هذه البيانات حتى يقوم المستخدم بحذف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. توصي LinkedIn بأن يستخدم المستخدمون أداة الوصول إلى البيانات الخاصة بها لحذف أو طلب حذف البيانات التي تم جمعها حول أنشطة LinkedIn السابقة.
وقالت الأسئلة الشائعة إن ميزات الذكاء الاصطناعي التي يمكن أن تولدها نماذج الذكاء الاصطناعي الخاصة بـ LinkedIn “قد يتم تدريبها بواسطة LinkedIn أو مزود آخر مثل Microsoft”، والذي يوفر بعض نماذج الذكاء الاصطناعي من خلال خدمة Azure OpenAI.
أشارت الأسئلة الشائعة الخاصة بـ LinkedIn إلى أن أحد مخاطر الخصوصية الرئيسية للمستخدمين هو أن المستخدمين الذين “يقدمون البيانات الشخصية كمدخلات لميزة تعمل بالذكاء الاصطناعي” يمكنهم رؤية “بياناتهم الشخصية المقدمة كمخرجات”.
تقول LinkedIn إنها “تسعى إلى تقليل البيانات الشخصية في مجموعات البيانات المستخدمة لتدريب النماذج”، بالاعتماد على “تقنيات تعزيز الخصوصية لتحرير أو إزالة البيانات الشخصية من مجموعة بيانات التدريب”.
بينما تجنبت مدونة Lawit توضيح ما إذا كان من الممكن إزالة البيانات التي تم جمعها بالفعل من مجموعات بيانات تدريب الذكاء الاصطناعي، أكدت الأسئلة الشائعة أن المستخدمين الذين اختاروا تلقائيًا عدم مشاركة البيانات الشخصية لتدريب الذكاء الاصطناعي يمكنهم فقط إلغاء الاشتراك في جمع البيانات المتطفلة “من الآن فصاعدًا”.
تنص الأسئلة الشائعة على أن إلغاء الاشتراك “لا يؤثر على التدريب الذي تم إجراؤه بالفعل”.
أخبر متحدث باسم LinkedIn آرس أن اختيار تدريب الذكاء الاصطناعي “افتراضيًا” سوف “يفيد جميع الأعضاء”.
وقال متحدث باسم LinkedIn: “يمكن للأشخاص اختيار إلغاء الاشتراك، ولكن الوظائف والشبكات وإنشاء الذكاء الاصطناعي تأتي إلى LinkedIn كجزء من الطريقة التي نساعد بها في هذا التحول”.
وأضاف متحدث باسم LinkedIn أنه من خلال السماح بإلغاء الاشتراك في تدريب الذكاء الاصطناعي المستقبلي، فإن ذلك “يمنح الأشخاص الذين يستخدمون LinkedIn المزيد من الخيارات والتحكم عندما يتعلق الأمر باستخدام البيانات لتدريب تقنية الذكاء الاصطناعي التي نقوم بتطويرها”.
كيفية إلغاء الاشتراك في تدريب الذكاء الاصطناعي على LinkedIn
يمكن للمستخدمين إلغاء الاشتراك في تدريب الذكاء الاصطناعي من خلال الانتقال إلى قسم “خصوصية البيانات” في إعدادات حساباتهم، ثم إيقاف تشغيل خيار السماح لـ LinkedIn بجمع “البيانات لدفع تحسين الذكاء الاصطناعي” تلقائيًا لمعظم المستخدمين.
الاستثناء الوحيد هو للمستخدمين في المنطقة الاقتصادية الأوروبية أو سويسرا، الذين يتمتعون بالحماية بموجب قوانين الخصوصية الصارمة التي تتطلب موافقة المواقع لجمع البيانات الشخصية أو الحصول على إذن من المواقع لتبرير جمع البيانات كمصلحة مشروعة. لن يرى هؤلاء المستخدمون خيار إلغاء الاشتراك لأنهم لم يشتركوا مطلقًا، وهذا ما أكدته LinkedIn مرارًا وتكرارًا.
بالإضافة إلى ذلك، قد يعترض المستخدمون على عدم استخدام نماذج الذكاء الاصطناعي التوليدية لإنشاء محتوى LinkedIn “باستخدام بياناتهم الشخصية للتدريب” – النماذج المستخدمة لأغراض التخصيص أو مراجعة المحتوى، حسبما ذكرت The Verge. مذكور– بالتقديم نموذج الاعتراض على معالجة بيانات LinkedIn.
لينكد إن العام الماضي شارك وتَعِد سياسات الذكاء الاصطناعي “باتخاذ خطوات هادفة للحد من المخاطر المحتملة للذكاء الاصطناعي”.
خطر متجدد اتفاقية المستخدم يمكن أن يؤدي استخدام ميزات التأليف في LinkedIn لتوسيع ملف تعريف أو إنشاء توصيات أثناء كتابة منشور إلى إنشاء محتوى “غير دقيق أو غير كامل أو متأخر أو مضلل أو غير ذي صلة بأغراضك”.
يُنصح المستخدمون بالامتناع عن مشاركة المعلومات المضللة أو نشر محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي والذي قد ينتهك إرشادات مجتمع LinkedIn. ويتم تحذير المستخدمين أيضًا من توخي الحذر عند الاعتماد على أي معلومات تتم مشاركتها على المنصة.
“كما هو الحال مع جميع المحتويات والمعلومات الأخرى الموجودة في خدماتنا، حتى لو تم تصنيفها على أنها تم إنشاؤها بواسطة “الذكاء الاصطناعي”، فيرجى مراجعتها بعناية قبل الثقة بها”، تنص اتفاقية المستخدم الخاصة بـ LinkedIn.
في عام 2023، قالت LinkedIn إنها “تسعى دائمًا إلى أن تشرح بطرق واضحة وبسيطة كيف يؤثر استخدامنا للذكاء الاصطناعي على الأشخاص” لأن “فهم المستخدمين للذكاء الاصطناعي يبدأ بالشفافية”.
إن التشريعات مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي واللائحة العامة لحماية البيانات – وخاصة مع حماية الخصوصية القوية – ستكون أقل صدمة للمستخدمين المطمئنين إذا تم سنها في مكان آخر. وهذا يضع جميع الشركات ومستخدميها على قدم المساواة عند تدريب نماذج الذكاء الاصطناعي ويؤدي إلى عدد أقل من المفاجآت السيئة والعملاء الغاضبين.