كيف تتلاعب بك الشركات باستخدام الذكاء الاصطناعي المخصص

نشرت: 2024-02-07
إخفاء جدول المحتويات
1 جاذبية التخصيص
2 نماذج تسويق المراقبة
3 الإدمان وليس الانحياز
4 الموافقة المستنيرة
4.1 توسيع حماية خصوصية المستخدم
4.2 التواصل الشفاف بشأن القدرات
4.3 تحسين التدقيق الخوارزمي العام
5 تمكين المستخدمين من الاختيار
6 تعزيز تعددية الذكاء الاصطناعي
7 بناء الشفافية حول الوسائط الاصطناعية
7.1 معايير الإفصاح الإلزامي
7.2 البنية التحتية للمصادقة
7.3 سياسات الموافقة المستنيرة
7.4 منع الخداع التوليدي
8 توجيه الذكاء الاصطناعي مع مراقبة المصلحة العامة
8.1 مجالس الخبراء الاستشارية
8.2 اللائحة الحكومية
8.3 القواعد والبروتوكولات العالمية
8.4 التدقيق العام كترياق
9 إعداد المجتمعات للتأثيرات الاقتصادية
9.1 دعم الانتقال الوظيفي
9.2 صناديق التحول التعاونية
9.3 نماذج الأعمال البديلة

إن القدرة على تخصيص المحتوى والتوصيات باستخدام الذكاء الاصطناعي تفتح الباب أمام التخصيص القيم للمستهلكين.

ولكن بدون رعاية، فإن خدمات تطوير الذكاء الاصطناعي التوليدي تخاطر أيضًا بالتلاعب بالمستخدمين لصالح مصالح الشركة.

كيف ينبغي لنا أن نوازن بين فوائد الذكاء الاصطناعي ووسائل الحماية ضد سوء الاستخدام؟

جاذبية التخصيص

تستخدم التطبيقات والأنظمة الأساسية بشكل متزايد الذكاء الاصطناعي لتقديم تجارب مخصصة فريدة لكل مستخدم.

تعرض محركات التوصية الوسائط والمنتجات المصممة حسب ذوقك.

تتفاعل Chatbots بشكل تفاعلي بناءً على أنماط المحادثة الخاصة بك. يقوم الذكاء الاصطناعي التوليدي أيضًا بصياغة رسائل مخصصة ومحتوى إبداعي سريعًا.

توفر هذه اللمسة الشخصية المدعومة بخدمات تطوير الذكاء الاصطناعي المنتجة فائدة واضحة.

يشعر العملاء بالفهم ويتلقون الاقتراحات ذات الصلة باحتياجاتهم.

تبدو تجارب المستخدم أقل عمومية وأكثر جاذبية. العلامات التجارية تبني الولاء من خلال الملاءمة.

ولكن من السهل التغاضي عن جاذبية التخصيص، وهو كيف أن هذه التقنيات نفسها تجعل من السهل للغاية على الشركات التأثير بشكل استراتيجي على المستخدمين واستغلالهم والتلاعب بهم بطرق مخصصة للغاية أيضًا.

نماذج التسويق المراقبة

تعتمد العديد من نماذج التخصيص على مراقبة البيانات على نطاق واسع، وتتبع سلوكيات المستخدم، والعلاقات، والعواطف، وأنماط الموقع، والمزيد. هذه النماذج السلوكية الغنية تغذي مخاطر التلاعب.

يمكن لخدمات الذكاء الاصطناعي التوليدية أن تستخرج هذه البيانات الشخصية لتحديد نقاط الضغط لدينا - المخاوف، وانعدام الأمان، والرغبات - التي تجعلنا عرضة للتأثير المستهدف عند استغلالنا. هناك قوة هائلة على المستخدمين.

تعمل بعض الأنظمة الأساسية على تغذية المستخدمين بشكل تدريجي بمقاييس تفاعلية أكثر استقطابًا للمحتوى.

يتم تضخيم الغضب والخوف. الحقيقة الموضوعية تميل إلى التطرف الخوارزمي.

وفي حين أن البيانات تغذي الأهمية، فإن الاعتماد المفرط على المراقبة يهدد أيضا استقلالية المستخدم والتماسك الاجتماعي. الموازنة المدروسة بين مسائل المنفعة والحماية.

الإدمان وليس الانحياز

بالإضافة إلى ذلك، فإن خدمات الذكاء الاصطناعي التوليدية التي تعمل على تحسين مشاركة المستخدم قبل كل شيء تخاطر بفقد التوافق مع رفاهية المستخدم.

تتعلم الأنظمة ديناميكيًا أفضل السبل لجذب الانتباه، وإثارة النبضات، ومواصلة تصفح المستخدمين، وهي تستفيد من نفس تقنيات الذكاء الاصطناعي التي يمكنها تحسين الصحة والتعاطف والإمكانات البشرية.

ومع ذلك، غالبًا ما تحفز الشركات الإدمان على المواءمة مع الهدف.

إذا تم توجيه أنظمة الذكاء الاصطناعي بمقاييس تفضل الوهم على الحقيقة، فقد تفقد مجتمعات بأكملها الاتصال بالواقع والتعاطف والعقل نتيجة لخوارزميات المشاركة التي تسيطر على العقول.

وهذا يسلط الضوء على الحاجة إلى الرقابة وقيود التصميم التي تمنع الذكاء الاصطناعي غير الخاضع للرقابة والمُحسَّن من أجل الربح الخاص فقط بدلاً من الرفاهية الجماعية.

ويجب أن تظل المواءمة مع الأخلاقيات غير قابلة للتفاوض.

إن التخصيص الذي تدعمه خدمات الذكاء الاصطناعي التوليدية يخاطر أيضًا بتجزئة الواقع المشترك إلى فقاعات مرشحة معزولة تشوه وجهات النظر العالمية.

عندما تلبي نماذج الذكاء الاصطناعي المعلومات لتناسب وجهات نظر المستخدمين الحالية، فإن الافتراضات لا يمكن تحديها.

يتآكل الخطاب النقدي. يتم فقدان فارق بسيط. الفرق يصبح تهديدا. الحقيقة تنقسم.

ويمكن بدلاً من ذلك تطبيق الذكاء الاصطناعي التوليدي لتعزيز التعاطف، وتقديم أفكار جديدة، وسد الفجوات، وتعزيز التفاهم المشترك.

ولكن لا بد من إعادة النظر في نماذج الأعمال التي تدفع العزلة إلى الشمول.

موافقة مسبقة

إن ضمان فهم المستخدمين لما إذا كانت أنظمة الذكاء الاصطناعي التوليدية تقوم بتخصيص المحتوى الإلكتروني خصيصًا للتعامل مع مشاركتهم وسلوكهم، ومتى وكيف، يمثل أيضًا مجالًا مهمًا للتركيز.

هل المستخدمون على علم بما فيه الكفاية؟

إن مجالات مثل العلاج والتعليم، حيث يؤدي عدم وضوح الخط الفاصل بين التوجيه البشري وتوجيهات الذكاء الاصطناعي إلى إثارة مخاوف أخلاقية، قد تتطلب حماية خاصة فيما يتعلق بالشفافية.

المعايير المتعلقة بالموافقة المستنيرة في الذكاء الاصطناعي تستحق الاهتمام.

بشكل عام، يتطلب تحقيق فوائد الذكاء الاصطناعي التوليدي في الأخلاقيات مراقبة واعية. ولكن ما الذي يمكن أن يحسن الحماية ضد سوء الاستخدام على وجه التحديد؟ أين يجب أن تظهر الدرابزين؟

توسيع حماية خصوصية المستخدم

إن تعزيز ضمانات الخصوصية القانونية التي تحد من كيفية وصول خدمات تطوير الذكاء الاصطناعي المولدة للبيانات الشخصية واستخدامها والاحتفاظ بها يوفر حماية أساسية ضد سوء الاستخدام.

على وجه الخصوص، فإن القيود المفروضة على الاستخدام غير الموافق عليه للبيانات مثل القياسات الحيوية والاتصالات والموقع وأنماط العلاقات في بناء نماذج المستخدم السلوكية المستخدمة لتخصيص الذكاء الاصطناعي التوليدي من شأنها أن تساعد.

إن منح المستخدمين حقوقًا معززة حول مراجعة البيانات الخاصة بهم التي يتم استخدامها في الذكاء الاصطناعي التوليدي وطلب حذفها يدعم أيضًا الموافقة.

وكذلك الأمر بالنسبة للسماح للمستخدمين بإلغاء الاشتراك بشكل كامل في الأنظمة المخصصة إذا رغبوا في ذلك.

ومع ذلك، فإن خدمات الذكاء الاصطناعي التوليدية التي تقتصر حصريًا على تجميع البيانات المجهولة تشكل خطرًا أقل بكثير للتخصيص المتلاعب. إن تطوير النماذج ذات الأخلاقيات المضمنة هو الأكثر أهمية.

التواصل الشفاف بشأن القدرات

مصدر الصورة

من المهم أيضًا التواصل الواضح مع المستخدمين لشرح ما إذا كان الذكاء الاصطناعي الإنتاجي يخصص المحتوى وكيفية تخصيصه - تحديد التوقعات المناسبة بشأن القيود.

إن المبالغة في تقدير مدى تعقيد خدمات الذكاء الاصطناعي التوليدية تخاطر بالخداع، وخيانة ثقة المستخدم إذا فشلت القدرات في الارتقاء إلى مستوى المطالبات عند الفحص الدقيق.

يجب على شركات تطوير الذكاء الاصطناعي التوليدي أيضًا زيادة الشفافية حول قدرات النموذج وبيانات التدريب ومقاييس التقييم التي توجه التخصيص.

ما هي المواءمة مع الأخلاقيات التي تحظى بالأولوية؟ إن شرح التأثيرات المجتمعية يدل على المساءلة.

تعزيز التدقيق الخوارزمي العام

إن توسيع الحقوق والموارد القانونية لتمكين الباحثين الخارجيين من تدقيق الخوارزميات التي توجه خدمات الذكاء الاصطناعي التوليدية يدعم المساءلة حول إساءة الاستخدام.

يوفر التحليل المستقل الذي يقيم نماذج التخصيص لقضايا مثل التحيز والتلاعب والتأثيرات على الرفاهية المعرفية إشرافًا حاسمًا لمواءمة الذكاء الاصطناعي مع الصالح العام، ومع ذلك، يجب على الشركات تسهيل الوصول الآمن.

ومن شأن مجموعات المجتمع المدني والمؤسسات الأكاديمية التي تتعاون عبر الحدود وتجميع قدرات التدقيق أن تعزز الرقابة على أنظمة الذكاء الاصطناعي العالمية. تضع عمليات التدقيق العامة ضغوطًا على الشركات لإظهار التزامها بالأخلاقيات.

تمكين المستخدمين من الاختيار

إن توفير واجهات واضحة تمكن المستخدمين من التعبير عن تفضيلاتهم حول كيفية تخصيص خدمات الذكاء الاصطناعي المولدة للمعلومات يعزز التمكين أيضًا.

تتيح خيارات ضبط المعلمات المتعلقة بموضوعات المحتوى ووجهات النظر واستخدام البيانات والأسلوب والمزيد للأفراد الاشتراك في التجارب التي تتوافق مع أهدافهم وقيمهم.

الأدوات التي توضح بشكل مرئي كيفية تأثير الإعدادات على مشهد المعلومات الناتج عن الذكاء الاصطناعي تعمل أيضًا على بناء الفهم.

وفي نهاية المطاف، فإن الحفاظ على الفاعلية البشرية في الأنظمة البيئية المعلوماتية لدينا يدعم الازدهار الموجه ذاتياً.

تعزيز تعددية الذكاء الاصطناعي

يؤدي منع دمج خدمات وبيانات الذكاء الاصطناعي التوليدية ضمن عدد صغير من الشركات إلى التخفيف من مخاطر التلاعب النظامي ودعم تنوع الخدمات من خلال عروض القيمة الفريدة.

إن سياسة المنافسة القوية، ومعايير التشغيل البيني، وحقوق إمكانية نقل البيانات تمنع الاستيلاء الاحتكاري على قدرات الذكاء الاصطناعي التوليدية، مما يحد من البدائل.

تعمل مجموعة الخدمات ذات الابتكار المتميز حول الأخلاقيات على تمكين المستخدمين.

إن الاستثمار الذي يدعم منصات المصلحة العامة غير الربحية، التي تسترشد برفاهية المستخدم، وليس تعظيم الربح وحده، يوفر خيارات إضافية.

إن السعي إلى تحقيق تعددية الذكاء الاصطناعي الموزعة بشكل عادل يخلق ضوابط وتوازنات تعود بالنفع على المجتمع.

بناء الشفافية حول الوسائط الاصطناعية

ومع اكتساب الذكاء الاصطناعي التوليدي القدرة على إنتاج وسائط اصطناعية مقنعة بشكل متزايد مثل التزييف العميق، يصبح ضمان الشفافية حول ما هو حقيقي وما هو زائف أمرًا بالغ الأهمية. وبدون سياسات دؤوبة، فإن النماذج التوليدية تخاطر بتمكين الخداع الجماعي.

معايير الإفصاح الإلزامي

يتطلب أحد مقترحات السياسة وضع علامات واضحة على الوسائط المُركبة بواسطة الذكاء الاصطناعي قبل التوزيع، على نحو أقرب إلى الإفصاحات حول الإعلانات.

وهذا يمنع محاولات تمرير المحتوى الاصطناعي على أنه أصلي.

يؤيد البعض وضع علامات مائية على ملفات الوسائط التي تشير إلى مصدر الذكاء الاصطناعي.

يقترح آخرون تراكبات نصية أو صوتية مطلوبة تكشف لفظيًا عن الأصول الاصطناعية أثناء التشغيل. وينبغي أن تنطبق المعايير على الاستخدام التجاري والسياسي.

العقوبات القانونية وسياسات المنصة ستفرض الامتثال.

بشكل عام، يرسي الكشف الإلزامي معايير تمنع الخداع من خلال الإغفال حول صحة الوسائط التوليدية.

البنية التحتية للمصادقة

بالإضافة إلى ذلك، يمكن للتقدم في البنية التحتية للمصادقة أن يجعل التحقق من سلامة الوسائط أسهل على نطاق واسع.

بدأت تظهر بصمات الوسائط التي تدعم تقنية Blockchain، وأنظمة التحليل الجنائي، وتتبع المصدر من خلال خطوط أنابيب الإنتاج.

تسمح هذه التقنيات للمنصات والصحفيين ومجموعات المراقبة بالتحقق بكفاءة من مصادر وسائل الإعلام ونزاهتها بدلاً من الاعتماد على الإفصاحات وحدها.

تساعد قواعد بيانات بصمات الأصابع أيضًا في تحديد الوسائط التي تم التلاعب بها والتي يتم نشرها دون الكشف عنها.

ومع تطور النماذج التوليدية، تصبح عملية المصادقة القوية التي تجمع بين الخبرة البشرية والتقنية ضرورية لمكافحة المعلومات المضللة واسعة النطاق.

وينبغي للمعايير والمنصات التي تتيح التحقق الفعال أن تعمل على توسيع نطاق الوصول.

سياسات الموافقة المستنيرة

ولأن الأفراد يعانون من الأذى عندما يتم توليف ما يشبههم في مواقف لم يوافقوا عليها مطلقًا، فإن السياسات المتعلقة بالموافقة المستنيرة تستحق أيضًا النظر فيها.

ويدافع البعض عن التشريعات التي تضمن حقوق الأفراد في رفض استخدام بياناتهم وما شابه ذلك في النماذج التوليدية.

قد تكون أذونات الاشتراك مطلوبة لتدريب الأنظمة التوليدية على البيانات القابلة للتعريف.

إن حقوق إلغاء الموافقة بعد وقوعها، وتطهير بيانات التدريب، ومنافسة الوسائط الاصطناعية غير المعتمدة، قد تساعد أيضًا في تحقيق التوازن بين مخاطر الذكاء الاصطناعي التوليدي.

يقع على عاتق الشركات التي تقوم بتطوير النماذج واجب أخلاقي يتمثل في احترام الهوية والموافقة.

منع الخداع التوليدي

وبعيداً عن المصادقة والإفصاح، تحتاج القيود التي تمنع الخداع غير الأخلاقي الصريح باستخدام الذكاء الاصطناعي التوليدي إلى التعزيز أيضاً.

يجب أن تحظر السياسات القانونية وسياسات البرامج الترويج لوسائل الإعلام الاصطناعية التي يمكن إثبات أنها كاذبة، وخاصة التي تستهدف السياسيين والانتخابات.

تتعارض النماذج التوليدية مع القيم الديمقراطية الأساسية عند استخدامها للخداع والاحتيال العلني.

ويجب أيضًا صياغة المعايير بعناية لتجنب الوصول غير المتناسب الذي يؤدي عن غير قصد إلى فرض رقابة على الهجاء والمحاكاة الساخرة والخطاب المحمي.

ومع ذلك، فإن المبادئ التوجيهية التي تخفف من التلاعب المتعمد تساعد في تعزيز المعايير.

مطلوب التواطؤ الشامل بين الشركات والمشرعين والمجتمع المدني لتنفيذ سياسات شاملة ضد وسائل الإعلام التوليدية غير الحقيقية التي تقوض ثقة الجمهور والخطاب.

توجيه الذكاء الاصطناعي مع مراقبة المصلحة العامة

إن ترك حوكمة قدرات الذكاء الاصطناعي التوليدية سريعة التقدم للشركات الخاصة فقط يخاطر بإعطاء الأولوية للحوافز التجارية على حساب الصالح العام. الرقابة المستقلة أمر بالغ الأهمية.

مجالس الخبراء الاستشارية

لتوجيه الذكاء الاصطناعي التوليدي بشكل مسؤول، يجب على الشركات الرائدة أن تعقد مجالس استشارية من الخبراء بما في ذلك علماء الأخلاق وخبراء السياسات والباحثين والمدافعين عن الحقوق المدنية.

ويمكن لهذه المجموعات تقييم القدرات الناشئة، وإجراء مراجعات للتأثير، واقتراح القيود، وتحديد الأضرار المحتملة، وتقييم التوافق مع حقوق الإنسان والمبادئ الديمقراطية. يشكل هذا الإدخال السياسات الداخلية.

تساعد المراجعة متعددة التخصصات التي تطبق عدسات متنوعة على معالجة الأبعاد الفنية والأخلاقية المعقدة عبر أنظمة الذكاء الاصطناعي التوليدية بشكل نقدي وشامل. المدخلات الخارجية تعزز المساءلة.

التنظيم الحكومي

تقع على عاتق الحكومات أيضًا واجبات في صياغة اللوائح التي توجه وتقييد الذكاء الاصطناعي التوليدي بما يخدم المصلحة العامة. إن المساءلة أمام المساهمين وحدهم ليست كافية.

ومن الممكن أن توفر القوانين التي تفرض تقارير الشفافية، وعمليات التدقيق الخارجية، ومراجعات التأثيرات المجتمعية للخوارزميات، رقابة صحية تشجع على الحيطة والحذر وتسلط الضوء على المخاوف المتعلقة بالمناقشة العامة.

كما تضمن سياسات مكافحة التلاعب، وضمانات حقوق الهوية، ومتطلبات الإفصاح، ومعايير المصادقة أن الذكاء الاصطناعي التوليدي يعزز الديمقراطية والكرامة الإنسانية. وستكون الأنظمة التنظيمية المتوازنة مهمة.

القواعد والبروتوكولات العالمية

ولأن النماذج التوليدية تنتشر بسرعة في مختلف أنحاء العالم، فإن الاتفاقيات المتعددة الأطراف التي توضح مبادئ مشتركة وممارسات محظورة تستحق المتابعة أيضاً.

ينبغي للمجتمع الدولي أن يعمل على تعزيز المعايير حول الموافقة، والإسناد، والصدق، وعدم التلاعب، والمساءلة، والرقابة، مما يوفر بوصلة أخلاقية عالمية.

إن السياسة الوطنية المتباينة تمكن من الاستغلال.

وفي حين أن الإجماع يستغرق وقتا طويلا، فإن حتى الاتفاقيات غير الكاملة التي تحدد خطوطا حمراء ضد الاستخدامات الضارة للذكاء الاصطناعي التوليدي وأفضل الممارسات توفر التقدم نحو المسؤولية الجماعية. وبدون التعاون، تتزايد المخاطر.

التدقيق العام كترياق

بشكل عام، فإن تنمية ثقافة الشفافية والنقاش والنقد متعدد التخصصات التي تركز على ضمان عمل الذكاء الاصطناعي التوليدي لصالح المجتمع يوفر ترياقًا قويًا للأضرار المحتملة.

إن التدقيق العام المكثف الذي يطبق عدسات متنوعة تركز على منع عدم التوافق مع حقوق الإنسان والمبادئ الديمقراطية يساعد في توجيه هذه التقنيات القوية نحو العدالة، وليس القمع.

أثبتت نماذج الذكاء الاصطناعي التوليدية التي تم إنشاؤها تحت ضوء الفحص العام مع الأخلاقيات الاستباقية في التصميم أنها أكثر جدارة بالثقة من الأنظمة المبهمة المُحسَّنة لتحقيق الربح والتأثير غير الخاضعين للرقابة.

إن الرقابة السليمة والمساءلة أمران مهمان.

إعداد المجتمعات للتأثيرات الاقتصادية

نظرًا لأن الذكاء الاصطناعي التوليدي يقوم بأتمتة العديد من المهام الإبداعية وأدوار الإنتاج الإعلامي، فإن المجتمع

يجب أن تقلل من الآثار الاقتصادية السلبية وتعطيل العمالة على العمال النازحين.

دعم الانتقال الوظيفي

تتحمل الشركات التي تتبنى الذكاء الاصطناعي لتقليل الطلب على الأدوار البشرية مسؤولية تمويل البرامج التي تساعد العمال المتأثرين على الانتقال إلى وظائف جديدة من خلال شراكات التدريب والتوظيف.

إن حزم نهاية الخدمة، ورواتب التعديل، ودعم الرسوم الدراسية، والاستشارات المهنية تساعد العمال على عدم التخلف عن الركب بينما يؤدي التقدم التقني إلى تحويل الصناعات. وينبغي للشركات الكبيرة أن تساهم بشكل متناسب.

صناديق التحول التعاونية

إن تجميع التمويل لدعم التحول عبر الشركات في صناديق تعاونية خاصة بقطاعات محددة يؤدي إلى إضفاء الطابع الديمقراطي على التكاليف مع تحسين كفاءة البرنامج.

وبدلاً من مئات المبادرات المجزأة، تعمل صناديق الصناعة بكفاءة على تقديم خدمات إعادة التدريب على نطاق واسع، ومطابقة الوظائف، والتمويل الأولي لريادة الأعمال للعمال المزاحين في جميع الشركات.

التكاليف المشتركة تعمل على تنمية الفرص المشتركة.

نماذج الأعمال البديلة

إن إنشاء هياكل مؤسسية بديلة تتقاسم الملكية والأرباح مع العمال يوفر مسارات إضافية لسبل العيش الشاملة وسط الأتمتة.

إن النماذج التي تضع الذكاء الاصطناعي التوليدي في خدمة التعاونيات المملوكة للموظفين تحقق مكاسب اقتصادية للناس بشكل مباشر وليس للمساهمين الخارجيين فقط.

وهذا يمكّن سبل العيش المستدامة للمزيد.

بشكل عام، تتحمل المجتمعات واجبًا عميقًا لتقليل الاضطراب الاقتصادي الناتج عن الذكاء الاصطناعي وتعزيز الفرص للسكان النازحين. بالحذر، يرفع التقدم التكنولوجي جميع القوارب.

إن تحقيق فوائد الذكاء الاصطناعي التوليدي مع تجنب المخاطر يتطلب الرعاية والحكمة في الحوكمة.

ولكن إذا تم تطبيق النماذج التوليدية بشكل صحيح، فمن الممكن أن تفتح المجال أمام اختراقات ملحوظة من شأنها أن ترفع الروح الإنسانية.

كيف تعتقد أنه يجب على المجتمع أن يوازن بين تعزيز ابتكار الذكاء الاصطناعي والضمانات المعقولة ضد سوء الاستخدام؟

ما هو الدور الذي يجب أن يلعبه المستخدمون في توجيه هذه التكنولوجيا بشكل أخلاقي؟ ونحن نرحب بوجهات نظركم أدناه.