الگوریتم های پیشنهاد دهنده ویدیوها برای معتاد کردن ما طراحی شده اند

وقتی در یک جمع صحبت از آینده تکنولوژی ها میشود، افراد بدبین به آینده فناوری ها معمولا آینده را اینگونه میبینند که هوشمندی روبات ها به حدی رسیده که از کنترل انسان ها خارج شده و روبات ها دیگر از ما فرمانبرداری نمی کنند. حرف هایی که آنها را در بسیاری از رمان ها، سریال ها و فیلم هایی که به پیش بینی آینده پرداخته اند میتوانیم ببینیم. البته این نگرانی های حاصل از پیشرفت های فوق سریع هوش مصنوعی، اغلب همگی از جهاتی شبیه به هم هستند. گوته (Johann Wolfgang von Goethe) نویسنده و شاعر آلمانی در شعری به نام شاگرد جادوگر ( The Sorcerer’s Apprentice ) در سال ۱۷۹۷ میلادی داستان جالبی نوشته است:

شاگرد یک جادوگر که هر روز مجبور به انجام برخی تمیزکاری های خانه است در غیاب جادوگر، وردی میخواند و جارو را به آوردن آب از چاه و ریختن و تمیز کردن کف اتاق شعبده میکند. همه چیز عالی پیش میرود و جارو با سرعت زیاد سطل ها را می آورد و روی زمین خالی میکرد. اما پس از اتمام نظافت وقتی شاگرد خواست جارو را متوقف کند دید وردی که میشناسد کار نمیکند و جارو مدام در حال خالی کردن آب کف اتاق است. تصمیم گرفت با یک تبر جارو را بشکند اما هر کدام از تکه های شکسته از جارو مانند یک جاروی کامل به آوردن آب ادامه دادند. طولی نکشید تمام خانه غرق در آب شود که در این لحظه جادوگر به خانه برگشت و طلسم را باطل کرد…

داستان شاگرد جادوگر

این داستان، مثال کلاسیک و الهام بخش بسیاری از داستان ها، فیلم ها و کارتون هایی است که در آنها انسان یک تکنولوژی را شروع میکند اما خیلی زود کنترل اوضاع از دستش خارج میشود و دیگر راهی هم برای توقف یا جبران باقی نمی ماند. ( مانند داستان و فیلم فرانکشتاین)

اگر نتوانیم برای یک الگوریتم هوش مصنوعی که از روش های یادگیری ماشین استفاده میکند هدف را به درستی مشخص کنیم و محدودیت هایی (Constraints) که لازمست تا الگوریتم آنها را متوجه باشد به طور کاملا دقیق و صحیح بیان نشده باشند، الگوریتم ها میتوانند مسیر یا روش هایی غیرموجه و غیرمنتظره از دید ما انسان ها برای رسیدن به اهدافشان پیدا کنند ( تصور کنید رباتی که موظف به ماهیگیری است پس از اینکه موفق نشده از یک استخر ماهی بگیرد تمام آب استخر را خالی کند تا ماهی را بدست آورد!). به مرور الگوریتم های یادگیرنده روش هایی برای تقلب کردن را یاد میگیرند که شاید اصلا یک انسان به آن ها فکر هم نمیکند. ( مانند تقلب کشف شده توسط الگوریتم در انجام بازی Q*bert آتاری )

تقلب الگوریتم بازی آتاری

مشابه همین مورد، الگوریتم پیشنهاد دهنده ویدیوی سایت یوتیوب است که روزانه تماشای میلیاردها ویدیو را به افراد توصیه میکند. این الگوریتم شاید در ابتدا هدفش تنها این بود که به شما ویدیویی با بیشتری احتمال دوست داشتنتان را پیشنهاد دهد و اینکه در کل بتواند مدت زمان بیشتری شما را به تماشا مشغول نگه دارد. در این صورت هدف اصلی تر این الگوریتم ( و الگوریتم های مشابه در سایت ها و اپلیکیشن های دیگر مانند اینستاگرام ) بیشینه کردن نمایش تبلیغات و درامد حاصل از آن برای شرکت مادر خود یعنی شرکت Alphabet است. جالب است که در آمار منتشر شده، کاربران ۷۰% زمان ها در حال مشاهده ویدیوهایی هستند که الگوریتم یوتیوب به آنها پیشنهاد داده است.

به نقل از یک توسعه دهنده الگوریتم یوتیوب:

“مسئله اینست که هوش مصنوعی یوتیوب ساخته نشده که انسان ها آنچه میخواهند را دریافت کنند، بلکه طوری ساخته شده که آنها را به یوتیوب معتاد کند!”

(شاید بتوان گفت که ویدیوهایی توصیه میشوند که بهتر میتوانند وقت افراد را هدر دهند! )

یکی از جذاب ترین و پر بازدیدترین موضوعات ویدیوهایی که در یوتیوب هر لحظه در حال دیده شدن است محتواهایی است که بحث های مرتبط با تئوری های توطئه را دنبال میکنند. ( هنوز افرادی هستند که کروی بودن زمین را یک دروغ میدانند و به زمین صاف (Flat Earth) باور دارند! یا هنوز هم روی نشستن انسان روی ماه توسط ناسا شک میکنند!  و یا گرم شدن کره زمین را غیرواقعی میپندارند!). چون انسان ها روی این ویدیوها کلیک میکنند، مسیر شبکه عصبی (neural net) الگوریتم یادگیری ماشین یوتیوب، برای اینکه این گونه ویدیوها را نیز به سایر افراد توصیه کند بیشتر تقویت میشود. این یعنی شما با جستجو از یک موضوع بی ضرر یا شاید علمی شروع می کنید اما پس از چند بار دنبال کردن ویدیوهای توصیه شده توسط یوتیوب، خود را در حال تماشای ویدیوهایی با محتوای خرافی، شبه علم و انواع تئوری های توطئه میبینید. هستند ویدیوهایی که مثلا با عنوان:  “۲۰۰ مدرک از اینکه چرا زمین گرد نیست؟!” که پر است از استدلال هایی که برای فردی با مدل ذهنی کمتر توسعه یافته میتواند واقعا شک برانگیز و پذیرفتی به نظر برسند. اینترنت بطور عام و پلتفرم هایی مانند یوتیوب و اینستاگرام بطور خاص پر است از misinformation هایی که برای افرادی بدون تفکر انتقادی، میتواند درک نادرستی از مسائل ایجاد کند. تا جایی که حتی اعتماد این افراد را نسبت به برخی سازمان ها (مثلا حرف هایی که ناسا از آسمان و زمین میگوید، یا گفته های سازمان هواشناسی از اوضاع آب و هوا و …) از بین ببرد که این بی اعتمادی افراد ناآگاه به نهادهای علمی جامعه تبعات خوبی به دنبال ندارد.

اما طرف دیگر، کسانی که مثلا مسطح بودن زمین را خنده دار میدانند اغلب نیازی نمیبینند محتواهایی تولید کنند تا دلایل پیروان صاف بودن زمین را رد کنند و اشتباه آنها را در بیان این تئوری های توطئه گوشزد کنند. لذا اغلب نسبتا ویدیوهای جذاب بیشتری در اینترنت از پیروان این تئوری های توطئه یافت میشود تا ویدیوهایی بر علیه آنها. به همین خاطر است که تعداد زیاد این محتواها و استدلال های سطحی و دم دستی مطرح شده در آنها برای یک فرد ناآگاه میتواند توهم آگاهی ایجاد نماید. شاید با افراد کمی هم تابحال برخورد داشته اید که حتی با دلایل و استدلال های علمی هم قانع نمیشوند! ( برای این افراد واقعا کار زیادی نمیشود کرد!). لذا بهترین کار شاید تولید ویدیوهایی با اطلاعات بهتر در یوتیوب باشد.

در کنفرانس Flat Earth نظرسنجی ای از ۳۰ نفر انجام شد که ۲۹ نفر از آنها اذعان کردند که از طریق یوتیوب با دیدگاه زمین مسطح آشنا شده اند و ۲ سال قبل حتی اسم آن را هم نشنیده بودند. آن نفر دیگر هم بطور غیرمستقیم با شنیدن صحبت های اعضای خانواده خود که آنها ویدیوهایی در یوتیوب دیده بودند با این دیدگاه آشنا شده بود.

این سیستم توصیه گر همچنین ویدیوهایی از زندگی خصوصی کودکان را به افراد پیشنهاد میکند که میتواند برای افرادی با اختلال پدوفیلی، مسیر یافتن و احیانا آزار این کودکان را تسهیل کند. لذا پلتفرم هایی با ابعادی اینچنین گسترده میتواند توسط افرادی که مسئولیتی برای رفتارهای اجتماعی خود پذیرا نیستند به هدف اذیت و آزار و سوء استفاده از دیگران استفاده شود.

همه اینها بخاطر اینست که الگوریتم های یادگیرنده ای مثل یوتیوب هر لحظه در حال یادگیری از چگونگی رفتار ما در انتخاب ویدیو ها ( و در واقع درونیات روان ما انسان ها ) هستند. این الگوریتم ها نمیخواهند شما فقط یک ویدیوی علمی مثلا درباره نجوم ببینید و سایت را ببندید بلکه میخواهند کاری کنند که شما هر چه بیشتر و بیشتر مانند دیگر افراد به دیدن ویدیوهایی ترغیب شوید که جذاب است و دیدن آن ها تا حد زیادی اعتیاد آور، مثل همین تئوری توطئه ای مثل زمین صاف.

متخصصان هوش مصنوعی در جواب همیشه به لزوم تغییر و بهبود و تکامل پیوسته هوش مصنوعی (Better AI) تاکید دارند. مانند بهبود الگوریتم یوتیوب که دیگر به قدیمی یا جدید بودن ویدیوها هم توجه میکند و ویدیوهایی که محتوایی تاریخ گذشته دارند را با اولویت کمتر توصیه می کند. یا مثلا اخباری از منابع قابل اعتمادتر را با اولویتی بالاتر پیشنهاد می دهد.

زمانی که در این سایت ها با پیشنهاد دیدن ویدیوهایی مواجه میشویم، ناخودآگاه در کرمچاله (Wormhole) ای از محتواهای درگیر کننده و معتادکننده می افتیم که از نقطه نظر هدف آن الگوریتم، مشاهده این ویدیوها و دنبال کردن این خط سیر پر سود و منفعت است. اما از نقطه نظر ما انسان ها، گذشته از مدت زمانی که گه گاه در مشاهده این ویدیوها تلف میشود، نکته مهم دیگر فدا شدن برخی اصول و مسائل اخلاقی است. چطور میتوان الگوریتم هایی با این عظمت را که علایق و سلایق روانی کاربران اینترنت را بسیار خوب شناخته اند مسئولیت پذیر کنیم؟ چه تغییری در این الگوریتم ها میتواند اخلاق دنیای تکنولوژی را بهبود دهد؟ ما چه کمکی میتوانیم در بهبود پیامدهای ناخواسته این الگوریتم ها داشته باشیم؟

ترجمه ای آزاد از مقاله “Algorithms Are Designed to Addict Us, and the Consequences Go Beyond Wasted Time”