التصنيفات
أفكار اقتصاد سياسة

كيف يمكن أن يفشل الذكاء الاصطناعي مستقبلاً؟

بناءً على التشابكات السياسية الاقتصادية التقنية اليوم، يمكن للذكاء الاصطناعي أن يفشل بشكل ذريع

المتحدثون عن عبقرية ChatGPT، والمحذرون من خطره لذات السبب ليسوا قلة. والنقاشات أبدًا محمومة حول طبيعة ذكاءه وفيما إذا كان يفهم مثل البشر أم أنه مجرد خوارزمية تنفذ بعض الأوامر على مستوى متطور. والفيديوهات عن تأثيره على الأعمال تملأ الانترنت. لكن يفوت البعض وسط كل ذلك الطرق التي قد يفشل بها GPT بشكل كارثي مستقبلاً، والتي تكشف الكثير على هياكل الأعمال التي نعمل داخلها اليوم والمتداخلة مع القضايا الاجتماعية والسياسية.

لنبدأ بغوغل

أفضل مثال على ذلك هو غوغل، فعندما بدأ محرك البحث في العمل شكل ثورة تقنية وضجة إعلامية مشابهة للتي أحدثها GPT اليوم. كان لمحرك البحث وظيفة واحدة: إيجاد ما تبحث عنه بدقة وبأسرع وقت. وقد كان غوغل رائعًا في ذلك، وهذا ما شكل شعبيته منقطعة النظير.

مع الوقت أراد غوغل تحسين نفسه ونتائجه، فبدأ، مثلاً، بتخصيص النتائج حسب المنطقة الجغرافية، والذي يبدو مفيدًا من الناحية النظرية إن كنت تبحث عن مطعم بيتزا قريب منك، ولكنه مزعج جدًا إن كنت تبحث عن مقالة أو منتج يخص بلد آخر. وكذلك صار غوغل يجمع بيانات زواره، ويعدل نتائجه حسب سجل تصفحهم، وأبحاثهم السابقة، وصارت بعض النتائج تحجب في بلدان معينة، وتظهر إعلانات في رأس النتائج، وغيره. وهكذا عندما يبحث شخصان اليوم عن نفس الجملة تمامًا، صارت تظهر نتائج مختلفة لكل منهما، مما جعل البعض يشعر بالإحباط وخيبة الأمل من غوغل، وظهرت محركات بحث تروج لنفسها كبديل لغوغل عبر الإشارة لسلبياته، مثل DuckDuckGo الذي يروج لنفسه على أنه محرك البحث في نموذجه الأساسي البسيط، ويحفظ خصوصية المستخدم ولا يسجل بياناته.

بالطبع ما يزال غوغل متربعًا على عرش محركات البحث بسبب التداخلات التقنية التي بناها لنفسه مثل حسابات البريد والمتصفح ونظام الهواتف المحمولة، ولعدم توفر بديل أفضل. رغم أن غوغل يظهر إعلانات في أعلى الصفحة، إلا أنه يوضح ذلك صراحة، في حين أن بينغ، مثلاً، كان يدمج الإعلانات داخل النتائج دون إشارة واضحة إلى أنه إعلان مدفوع.

أحد الأسباب الرئيسية أيضًا لتراجع جودة نتائج غوغل يأتي من خارجه، وهو في هذه الحالة كتاب المحتوى، ومحسنو نتائج البحث. عندما اكتشف أصحاء المواقع التجارية أن غوغل قد يكون وسيلة ممتازة لجذب الزوار دون تكلفة إعلانية، صار هنالك سباق محموم لفهم كيفية عمل خوارزمية غوغل، ومن ثم التغلب عليها للظهور في النتائج المتقدمة، حتى وإن لم يكن الموضوع مفيدًا. بطبيعة الحال يعدل غوغل من خوارزميته أكثر مما يكبس مراهق على زر الأغنية التالية في سيارته ليواجه هذه المواقع، ولكن لا يخفى على أحد أنه عندما تبحث اليوم عن أمر ما، ورغم أن بعض النتائج ستكون في صلب الموضوع، سيكون الكثير منها غير مفيد بالمرة ولا يحل مشكلتك. من هنا، يتوجه معظم الباحثون اليوم لاستخدام محركات بحث أكاديمية متخصصة عند إجراء أبحاث مهمة بدلاً من استخدام غوغل حيث سيقعون في عناوين مضللة غالبًا. وإن كانت تثق، على سبيل المثال، بمراجعات لوس أنجلوس للكتب فيجب عليك كتابة اسمهم في البحث وإلا ضاعت نتيجتهم ضمن ملايين النتائج المضللة.

في أثر مشابه، نجد أن فيسبوك بدأ كمنصة للتواصل بين الأصدقاء ومشاركة الصور والأفكار وغيره. وكما في غوغل اكتشف الكثيرون أنهم يستطيعون استخدام فيسبوك للترويج لأعمال ومنتجاتهم وخدماتهم، فبدأت تظهر صفحات تجارية بحتة، وصارت المنشورات أشبه باتصالات المسوقين المزعجين بدلاً من أخبار الأصدقاء. اكتشف فيسبوك أن غيره يجني المال من وراءه فيما بقي هو يتفرج ويعرض خدماته مجانًا، فتحول إلى الإعلانات، وغير خوارزميته لإضعاف ظهور المنشورات ما لم يتم الدفع له، وبات يظهر للمستخدم في نهاية المطاف منشورات دعائية أكثر من منشورات أصدقاءه ومما يهتم به ويتابعه حقًا.

عدا عن ذلك، بدأت تظهر الحساسيات السياسية الدينية وما هو مقبول اجتماعيًا وما هو محرم. وفي محاولة للسيطرة على هذا الأمر، ولعدم تحمل مسؤولية عن التجييش قبل الأعمال الإرهابية والعنصرية، وكونه لا يستطيع تصفية هذه الأمور أوتوماتيكيًا، عرض فيسبوك خدمة التبليغ عن المنشورات المخالفة، وحدث سياسته و”قيمه المجتمعية” التي قد تعرض المستخدم للحجب عند اختراقها، والتي صارت أشبه بوصايا وخطايا دينية بدورها. لكن الأمور خرجت عن السيطرة، وفي حين أن منشورات عنصرية تأجيجيه تلقى ملايين المؤيدين، تحجب بعض المنشورات عند أدنى ذكر لكمات أو شعارات أو صور يراها فيسبوك محرمة.

والآن عن ChatGPT

ما يزال ChatGPT في مراحله الأولية، حيث عدد قليل فقط من الأشخاص يمتلكون صلاحية كاملة للوصول إليه واستخدامه، ومن المثير للاهتمام الانتظار ورؤية كيف سيغيره المال والسياسة والمجتمع كما غير غوغل وفيسبوك وتويتر ويوتيوب.

حتى الآن GPT شبه مجاني أو يمكنك دفع اشتراك شهري لاستخدام الإصدارات الأحدث- هذا الأمر بحد ذاته يوضح الفروقات في الوصول للتكنولوجيا الحديثة بين من يملك أن يدفع ومن لا يملكون من سكان العالم الثالث غالبًا. في كل الأحوال فهذه ليس دخلًا مربحًا، وحتى لو كان كذلك، ذلك لا يمنع الشركات الرأسمالية من البحث عن طرق أخرى لزيادة الربح؛ خاصةً إن كان هنالك طلب شديد عن المنتج. وهذا ما صرح به مدراء الموقع بأنهم لا يملكون حاليًا تصورًا عن طرق جني الأرباح، ولكن ممن الممكن سؤال الذكاء الاصطناعي عن ذلك عندما يبلغ ما يكفي من المقدرة لحل مثل هذه المشكلات.

ماذا لو دفعت بعض الشركات مقابل أن يشملها رد GPT؟ لتفترض أنك سألته ما أفضل مكان لتناول العشاء في الخارج. سيقوم GPT بفحص الردود على الانترنت ومن ثم إعطاءك قائمة بمطاعم يمكنك زيارتها، ولكن ذلك لن يرضي مطاعم أخرى لم يشملهم الرد، فماذا يمكنها أن تفعل في هذه الحالة؟ ستقوم بالطبع بالدفع مقابل أن يظهر اسمها في القائمة… أو، بعد مدة ما، سيكتشفون كيف يجمع GPT نتائجه من الانترنت، ومن ثم سيقومون بإغراق الانترنت بتقييمات ونتائج طيبة عنهم، ليظهر اسمهم في رده. هذا ما حدث مع غوغل وغيره، فلماذا لا يحدث مع GPT؟

الأمر الآخر الذي سيغير من جودة نتائج الذكاء الاصطناعي، وهذا الأمر بدأنا نراه منذ اليوم، هو الصحة السياسية والاجتماعية والدينية. نشرت Open AI عدة تحديثات تظهر كيف أن رد GPT لم يكن مناسبًا في النسخة السابقة عند سؤاله عن مسائل تتعلق بالقاعدة أو الإرهاب، وقد تم تعديل كيفية الرد في النسخة الأحدث. ذلك أمرٌ جيد بطبيعة الحال، ولكن من المحق أن نسأل عند أي حد ستتوقف هذه التعديلات، وعند من؟ من سيحدد ما هو مقبول وما يجب عدم الرد عليه؟

من الصعب تحديد ذلك، ولكن المؤكد أن إرضاء البشر غاية لا تدرك؛ ما سيكون مضحكًا لأحدهم سيكون أيضًا خدشًا للحياء والمشاعر الدينية لآخر، وما هو مقاومة مشروعة لطرف سيكون إرهابًا للطرف آخر. هل سيتم تكميم خوارزمية GPT عند مناقشة أي من هذه المسائل؟ أم ستظهر نسخ ليبرالية ويمينية منه؟ أم سيسجل بيانات المستخدم وتوجهاته ويعطيه نتائج تُرضى توجهاته وانتماءاته؟

حتى الآن، GPT مثير للإعجاب ككاتب محتوى يجد أجوبة دقيقة لأسئلة معرفية، ومن المشوق -وربما المرعب- انتظار رؤية تفاعله مع الآراء والتوجهات المختلفة للبشر، ومن ثم محاولة إرضاءهم جميعًا، وجني الأرباح وسط كل ذلك.

رافاييل لايساندر