یوتیوب بازدیدکنندگان را به سایتهای تاریک اینترنت هدایت می کند
شبکه ی یوتیوب، تلویزیون جدیدی است که بیش از ۱٫۵ میلیارد کاربر دارد و ویدئوهایی که این سایت به افراد پیشنهاد می کند می تواند بر دیدگاه آن ها اثر گذار باشد.
علی رغم تغییراتی که اخیرا یوتیوب برای ارائه ی محتواهای خنثی و بی طرف در این سایت ایجاد کرده است، این پیشنهادها در بیشتر موارد محتوایی گمراه کننده، تفرقه انداز و نادرست را به افراد معرفی می کنند.
گویا آیتی – امروزه افراد در سراسر دنیا مجموعا بیش از یک میلیارد ساعت را مشغول تماشای ویدئوهای یوتیوب هستند، که این میزان از سال ۲۰۱۲ حدودا ۱۰ برابر شده است. یوتیوب این رشد شگفت انگیز مخاطبان را مدیون الگوریتمی است که فهرستی از ویدئوهای پیشنهادی را برای هر فرد می سازد. یوتیوب می گوید این فیلم های پیشنهادی بیش از ۷۰ درصد از مجموع زمان بازدید افراد از سایت را تشکیل می دهند و به همین دلیل الگوریتم اشاره شده، بزرگترین تصمیم گیرنده ای است که مشخص می کند افراد چه فیلم هایی را ببینند.
تحقیقات انجام شده از سوی وال استریت ژورنال نشان می دهد که ویدئوهای پیشنهادی یوتیوب اغلب کاربران را به کانال هایی هدایت می کند که به موضوعاتی چون تئوری های توطئه، دیدگاه های افراطی و تصاویر گمراه کننده می پردازند، حتی هنگامی که کاربر واقعا هیچ علاقه ای به چنین موضوعاتی نشان نداده است. هنگامی که کاربران در تماشای ویدئوها نوعی خطا در دیدگاه های سیاسی از خود نشان می دهند، معمولا یوتیوب ویدئوهایی را به آن ها پیشنهاد می کند که این خطاها و دیدگاه ها را بیشتر تأیید می کند و حتی اغلب دیدگاهی بسیار تندرو تر از موضوع اصلی را نشان می دهد.
این نوع پیشنهادها موجب شده است که نگرانی ها در مورد تأثیر رسانه های اجتماعی در تقویت دیدگاه های افراطی و تندرو، اطلاعات غلط پخش شده و ایزوله شدن کاربران در “حباب های فیلتر شده” ای که تنها دیدگاه های مشابه در آن قابل مشاهده است افزایش یابد. برخلاف فیسبوک و توئیتر که در آن ها کاربران می توانند محتوای حساب های کاربری را ببینند که به دلخواه خود آن ها را دنبال کرده اند، یوتیوب در تصمیم گیری راجع به محتویاتی که کاربران می بینند و در غیر این صورت احتمالا از دیدن آن در امان می مانند نقش فعالی ایفا می کند.
پروفسور کریستو ویلسون از دانشگاه شمال غربی آمریکا که به مطالعه ی تأثیر الگوریتم های کامپیوتری می پردازد معتقد است:” سیاست ویرایش کننده ی این پلت فرم های جدید آن است که هیچ سیاست مشخصی نداشته باشند. این تصمیم در شرایطی که آزادی بیان وجود داشته باشد و “در بازار ایده های گوتاگون، بهترین دیدگاه ها برنده باشند” تصمیم بسیار خوبی به نظر می رسد. اما ما بارها و بارها شاهد آن بودیم که این چیزی نیست که در واقعیت اتفاق می افتد. در عوض، از این سیستم برای اهدافی نه چندان خوشایند استفاده شده و به کمک آن افراد فریب داده می شوند.”
یوتیوب می گوید که هر روز بیش از ۲۰۰ میلیون ویدئوی متفاوت به ۸۰ زبان مختلف را به افراد پیشنهاد می دهد و این توصیه ها در راستای کلیپ هایی که کاربران در حال مشاهده ی آن هستند یا پلی لیست های شخصی است که در صفحه ی اصلی یوتیوب ایجاد شده است.
نیل موهان، مدیر ارشد تولید یوتیوب می گوید با سابقه ی طولانی که این کمپانی به عنوان یک رسانه ی سرگرم کننده دارد، یوتیوب اخیرا تلاش می کند منبع قابل اطمینان تری برای اخبار باشد.
یوتیوب از پاییز گذشته تلاش می کند با اصلاح الگوریتم خود، منابع خبری “موثق تر”ی را برای افرادی که به دنبال اخبار فوری هستند به نمایش بگذارد. هفته ی گذشته این کمپانی اعلام کرد که برای ارائه ی اطلاعات معتبر از منابع خبری موثق و به حاشیه راندن تصاویری که تئوری های توطئه را ترویج می کنند، در حال اعمال تغییراتی در سیاست های خود است.
پس از آنکه وال استریت ژورنال هفته ی گذشته نمونه هایی را ارائه کرد که نشان می داد یوتیوب هنوز تماشای ویدئوهای گمراه کننده و تفرقه افکنی را به افراد توصیه می کند، مدیران این رسانه ی اجتماعی اعتراف کردند که ویدئوهای پیشنهادی واقعا یک مشکل اساسی هستند. جوآنا رایت مدیر ارشد دیگری از یوتیوب در بخش تولید محتوا گفته است:” ما مسئولیت این مشکل را برعهده گرفته ایم و برای حل آن باید تلاش بیشتری داشته باشیم.”
مهندسانی که الگوریتم یوتیوب را طراحی کرده اند می گویند یوتیوب چند سال پیش برای افزایش جذب مخاطبان، الگوریتم مذکور را تنظیم کرده است. این الگوریتم برای آنکه کاربران را در حال تماشای ویدئوها نگاه دارد، ویدئوهایی را به آن ها پیشنهاد می کند. یوتیوب از طریق تبلیغاتی که پیش از آغاز ویدئوها و وسط آن ها نمایش داده می شوند، کسب درآمد می کند.
دو مهندس اصلی می گویند این الگوریتم به دنبال یافتن ویدئوهای افراطی نیست، بلکه به جست و جو برای کلیپ هایی می پردازد که بر اساس داده ها پربازدید بوده اند و افراد را برای مشاهده ی تصاویر در سایت نگاه داشته اند. این ویدئوها معمولا به موضوعاتی احساسی و حواشی عجیب و غریب رویدادها می پردازند.
کریستوس گودرو، مهندس ارشد ویدئوهای پیشنهادی یوتیوب این هفته اعلام کرد که این الگوریتم ها به نحوی با اخبار و دیدگاه های سیاسی عمومی در تضاد است اما “این همان سیستمی است که افراد را برای آموزش بافتنی، ویدئوهایی از گربه های بامزه و با هر چیز دیگری به یوتیوب می کشاند.”
روش دیگری نیز برای سنجیدن این پیشنهاد ها وجود دارد که توسط پدر یوتیوب، یعنی کمپانی آلفابت نشان داده شده است. این کمپانی الگوریتم هایی را برای موتورهای جست و جو طراحی کرده است تا معتبر و موثق بودن منابع را نیز بررسی کرده و تنها به دلیل محبوبیت و تعداد بازدیدهای فراوان، آن را توصیه نکند.
به کار گیری این الگوریتم در یوتیوب و گوگل می تواند نتایج بسیار متفاوتی را به دنبال داشته باشد.
برای مثال، نتیجه ی جست و جو برای عبارت “FBI Memo” را در روز جمعه، با گذشت چند ساعت از انتشار بیانیه ی از سوی جمهوری خواهان در نظر بگیرید. این بیانیه در مورد تلاش های مقامات امنیتی برای دریافت مجوز نظارت بر یکی از مشاوران سابق دونالد ترامپ منتشر شده بود.
در جست و جو برای این عبارت در یوتیوب، پس از چند ویدئو از منابع معتبر خبری، ویدئویی از حساب کاربری BPEarthWatch نشان داده می شود که با عبارت “اختصاص داده شده به تماشای رویدادهای آخرالزمانی که بازگشت مسیح را به دنبال خواهند داشت: ستاره های دنباله دار، شهاب سنگ ها، زلزله ها، طوفان های خورشیدی و قدرت های آخرالزمانی” توصیف شده است. در ادامه ویدئوهایی از حساب کاربری Styxhexenhammer666 که در بخش توضیحات خود، عبارت “من خدا هستم” را نوشته و هم چنین تصاویری از حساب کاربری الکس جونز، بنیان گذار سایت Infowars نشان داده می شود که در بیشتر موارد به تئوری های توطئه می پردازد.
در مقابل، جست و جوی همین عبارت در گوگل، تنها منابع خبری معتبر را برای کاربران می آورد.
کریستال دالن سخنگوی گوگل گفته است که این کمپانی سال گذشته برای “ارائه ی نتایج معتبرتر برای جست و جو ها، کمک کردن به جلوگیری از انتشار اخبار و محتویات گمراه کننده، بی کیفیت، موهن یا اطلاعات غلط” الگوریتم خود را اصلاح کرده است. دالن افزوده است “گوگل برای به اشتراک گذاشتن دانش خود در حال همکاری با تیم یوتیوب است.”
به عقیده ی خانم رایت، یکی از اعضای تیم یوتیوب، دلیل معتبر تر بودن نتایج گوگل آن است که تیم این کمپانی تجربه ی بیشتری در رابطه با اخبارها و منابع موثق برای دریافت خبرهای مهم دارد. او می گوید:” معمولا زمانی که خبری منتشر می شود، افراد مقاله هایی در مورد آن می نویسند اما ویدئویی در این باره ساخته نمی شود.”
در ماه اکتبر، یوتیوب برای بازگرداندن منابع موثق خبری به نتایج جست و جو برای اخبار فوری، تغییراتی را در الگوریتم خود ایجاد کرد چرا که پس از تیراندازی مرگبار لاس وگاس در سال گذشته، ویدئوهایی در نتایج جست و جوهای یوتیوب به نمایش در می آمدند که در آن ادعا می شد دولت در این تیراندازی ها دست داشته است.
در هفته های اخیر، یوتیوب سعی داشته است که نتایج دیگر جست و جو را نیز تا حدودی سر و سامان بدهد. از آن زمان به بعد، نتایج تست های وال استریت ژورنال نشان می دهد که با جست و جو در یوتیوب، نتایج کمتری از کانال های به شدت افراطی و خرافاتی به نمایش در می آیند.
اما هنوز هم بسیاری از نتایج جست و جوها در این سایت، شامل ویدئوهایی از تئوری های توطئه بودند.
ویدئوهای پیشنهادی یوتیوب در سال ۲۰۱۶، در مشغول نگاه داشتن افراد در سایت و تماشای ویدئوهای بیشتر موثر بود. این روند نتیجه ی استفاده از تکنیک جدیدی به نام شبکه ی عصبی عمیق، با بهره گیری از هوش مصنوعی بود. این شبکه بین ویدئوها روابطی را برقرار می کند که انسان ها این قدرت را ندارند. به گفته ی یوتیوب الگوریتم شبکه ی عصبی از صدها سیگنال استفاده می کند، اما مهمترین آن ها تصاویری هستند که کاربر پیش تر آن ها را مشاهده کرده است.
به گفته ی جیم مک فادن، استفاده از یک شبکه ی عصبی عمیق موجب می شود که سر در آوردن از ویدئوهای پیشنهادی یوتیوب نسبت به تکنیک های قبلی برای مهندسان پیچیده تر شود. او افزوده است :”دیگر نیازی نیست که خیلی به این مسئله فکر کنیم. ما داده های خام را به سیستم می دهیم و او بقیه ی کارها را می کند.”
برای آنکه الگوریتم اشاره شده بهتر مشخص شود، وال استریت ژورنال از یکی از مهندسان سابق یوتیوب به نام گویلام چِیسلات کمک گرفته است. او کسی است که زمانی روی موتورِ ویدئوهای پیشنهادی یوتیوب کار می کرده است، و هزاران ویدئوی پیشنهادی در این سایت را بر اساس نزدیک ترین عبارت جست و جو شده، از میان ۴۰ عبارتی که بیشترین جست و جوها را در ماه های نوامبر و دسامبر در Google News داشته اند تحلیل کرده است.
چیسلات برنامه ای کامپیوتری را طراحی کرده است که روند گشت و گذار کاربران در این سایت را از صفحه ای به صفحه ی دیگر شبیه سازی می کند. در مطالعه ای که وال استریت ژورنال انجام داد این برنامه پنج نتیجه ی نخست نشان داده شده برای یک عبارت جست و جو شده را جمع آوری کرده است. سپس، برنامه سه ویدئوی پیشنهادی اول یوتیوب را برای هر کدام از نتایج نشان داده شده به ثبت رساند و پس از آن، سه توصیه ی نخست یوتیوب پس از نمایش هرکدام از ویدئوهای پیشنهاد شده را جمع آوری کرد و به این ترتیب چهار گام از جست و جوی اصلی جلو تر رفت.
چیسلات و گروه وال استریت ژورنال پس از خروج از حساب کاربری یوتیوب و پاک کردن هیستوری تمام ویدئوهای مشاهده شده، داده ها را جمع آوری کرده و هیچ داده ای را برای آنکه یوتیوب پیشنهادهایی را بر اساس آن ترتیب دهد باقی نگذاشتند.
نخستین آنالیز از عباراتی که در ماه نوامبر بیشترین جست و جو را داشته اند نشان داد که یوتیوب عمدتا کاربران را به تماشای ویدئوهای تفرقه افکن و گمراه کننده هدایت می کند. آنالیز بعدی که در ماه دسامبر انجام شد نشان داد که یوتیوب برای جست و جو در مورد اخبار مربوطه، به منابع خبری معتبر روی آورده است اما هنوز هم ویدئوهای گمراه کننده و نامربوط بسیاری را پیشنهاد می کند.
به نظر می رسد که اصلاحات انجام شده روی الگوریتم یوتیوب، ویدئوهای پیشنهادی این سایت را در صفحه ی اصلی کاربر تغییر چندانی نداده است. در صفحه ی اصلی، الگوریتم بر اساس ویدئوهایی که کاربر قبلا مشاهده کرده است، نتایجی را به صورت شخصی نمایش می دهد.
جست و جوهای آزمایشی انجام شده توسط وال استریت ژورنال در هفته ی گذشته نشان داد که صفحه ی اصلی کاربران، برای کسانی که تصاویری از منابع خبری معتبر را مشاهده کرده اند ویدئوهایی مرتبطی را توصیه می کند.
جست و جو برای چند موضوع و بازگشت به صفحه ی اصلی بدون آنکه جست و جوی جدیدی انجام شود، هنوز هم می تواند ویدئوهایی را پیشنهاد کند که کاربران را به سمت موضوعاتی چون تئوری های توطئه سوق دهد، حتی اگر این افراد در جست و جوهای قبلی خود تنها به دنبال منابع خبر معتبر بوده باشند.
به نظر می رسد که یوتیوب برای ساماندهی ویدئوهای پیشنهادی خود، هنوز راه درازی را در پیش دارد.