fbpx

أسباب تمنعك من الوثوق بالذكاء الاصطناعي

تبدو خدمات الذكاء الاصطناعي كأنها تعمل لصالحك لكنها تعمل ضدك سراً، إذ إنها تتجسس عليك وتجمع بياناتك وتبيعها.

وإذا سألت أي مساعد ذكاء اصطناعي مثل “أليكسا” و”سيري” ومساعد “غوغل” عما إذا كانت الشركة، التي تملكه تتخطى قوانين الاحتكار، فإنه سيجيب بأنه لا يعرف.

بينما لا يتطلب الأمر الكثير لجعله ينتقد شركات التكنولوجيا العملاقة الأخرى، لكنه سيظل صامتًا بشأن أخطاء شركته الأم، وعندما يستجيب مساعد الذكاء الاصطناعي بهذه الطريقة، فمن الواضح أنه يضع مصالح مطوره قبل مصالحك.

27298bce-6405-4ac8-bd4c-413350b2842a

 

 

ومع ذلك، عادةً ما لا يكون من الواضح جدًا من يخدم نظام الذكاء الاصطناعي، ولتجنب استغلال هذه الأنظمة، سيحتاج الناس إلى تعلم التعامل مع الذكاء الاصطناعي بتشكك، وهذا يعني أنه لا يجب الوثوق بالنتائج التي يقدمها والتفكير بشكل نقدي في هذه النتائج.

التلاعب بالنتائج

إن الأجيال الأحدث من نماذج الذكاء الاصطناعي، مع استجاباتها الأكثر تطورًا وأقل تكرارًا، تجعل من الصعب معرفة من يستفيد عندما تتحدث، فتلاعب شركات الإنترنت بما تراه لخدمة مصالحها الخاصة ليس بالأمر الجديد.

وعلى سبيل المثال نتائج بحث غوغل وخلاصة فيسبوك الخاصة بك مليئة بالنتائج المدفوعة، مع العلم أن غالبية منصات التواصل يتلاعبون بالنتائج لزيادة الوقت الذي تقضيه على المنصة، مما يعني المزيد من مشاهدات الإعلانات، على حساب رفاهيتك.

أسباب عدم الثقة

ليس لديك سبب للثقة في أدوات الذكاء الاصطناعي الرائدة اليوم، إذ إنك لا تعرف كيف يتم تكوين الذكاء الاصطناعي وطريقة تدريبه، وما المعلومات التي تم إعطاؤها، وما التعليمات التي تم إصدار الأوامر لها باتباعها.

ومن أبرز الأسباب التي يمكنها أن تزعزع الثقة بالذكاء الاصطناعي نذكر ما يلي:

كسب المال

يتم إنشاء العديد من أنظمة الذكاء الاصطناعي وتدريبها بتكلفة هائلة من قبل بعض أكبر الاحتكارات التكنولوجية، ويتم تقديمها للناس لاستخدامها مجانًا، أو بتكلفة منخفضة للغاية، لذلك ستحتاج الشركات إلى تحقيق الدخل منها بطريقة أو بأخرى، وكما هو الحال مع بقية الإنترنت، من المرجح أن يشمل ذلك المراقبة والتلاعب.

 

601fa334-f178-4c7f-b4e1-400de3715322

 

 

تخيل أنك تطلب من روبوت الدردشة الخاص بك التخطيط لإجازتك القادمة، هل اختار شركة طيران أو سلسلة فنادق أو مطعمًا معينًا لأنه كان الأفضل بالنسبة لك أم لأن صانعه حصل على عمولة من الشركات، كما هو الحال مع النتائج المدفوعة في بحث غوغل وإعلانات موجز الأخبار على “فيسبوك؟.

أما إذا كنت تطلب من روبوت الدردشة الخاص بك معلومات سياسية، فهل النتائج ستكون منحرفة بسبب سياسات الشركة التي تمتلك روبوت الدردشة؟ أو المرشح الذي دفع له أكبر قدر من المال؟ أو حتى آراء التركيبة السكانية للأشخاص الذين تم استخدام بياناتهم في تدريب النموذج؟ في الوقت الحالي، لا توجد طريقة لمعرفة ذلك.

الامتثال للقوانين

من المتوقع أن تصبح شركات التكنولوجيا والذكاء الاصطناعي أكثر جدارة بالثقة.

وفي هذا السياق يتخذ قانون الذكاء الاصطناعي المقترح من الاتحاد الأوروبي بعض الخطوات المهمة، ويتطلب الشفافية بشأن البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، والتخفيف من التحيز المحتمل، والإفصاح عن المخاطر المتوقعة، مع ذلك، تفشل معظم أنظمة الذكاء الاصطناعي الحالي في الامتثال لهذا التفويض الأوروبي الناشئ.

وعندما تحصل على توصية بالسفر أو معلومات سياسية من أداة الذكاء الاصطناعي، تعامل معها بنفس العين المتشككة التي تتعامل بها مع عرض على لوحة إعلانية أو متطوع في حملة انتخابية، وعلى الرغم من كل سحرها التكنولوجي، فإن أداة الذكاء الاصطناعي قد لا تكون أفضل من غيرها من ناحية الثقة وعدم التحيز الآن.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى