چگونه الگوریتم‌های پیشنهادی رسانه‌های اجتماعی باعث نفرت پراکنی می‌شوند؟

توسط فرشته داورپناه
8 دقیقه

شرایط آنقدر بد می‌شود که حتی کنگره نیز اقدام به بررسی می‌کند.
هفته‌ی گذشته، مجلس سنا در جلسات دادرسی پیرامون خطرات احتمالی بوجود آمده توسط تقویت و تعصبات الگوریتمی، میزبان تعدادی از شخصیت‌های مهم شرکت رسانه‌های اجتماعی بود. در حالی که آن جلسه تقریباً بلافاصله به سیرک حزبی افشاگری شکایات مجلل تبدیل شد، سناتورهای دموکرات موفق شدند کمی بر روی چگونگی کمک این الگوریتم‌های پیشنهادی به گسترش اطلاعات نادرست آنلاین و ایدئولوژی‌های افراطی تمرکز کنند. مسائل و مشکلات بوجود آمده توسط الگوریتم‌های اجتماعی به خوبی شناخته و مستند شده اند. بنابراین، ما واقعاً در مورد آن چه خواهیم کرد؟
دکتر برندی نونکه، مدیر آزمایشگاه سیاست سیتریس در دانشگاه برکلی کالیفرنیا، در مصاحبه با Engadget گفت: “بنابراین فکر می‌کنم برای پاسخ به این سوال، یک مسئله اساسی وجود دارد که باید اتفاق بیفتد: ما به محققان مستقل بیشتری نیاز داریم که بتوانند سیستم عامل‌ها و رفتار آن‌ها را تجزیه و تحلیل کنند”. شرکت‌های رسانه‌های اجتماعی “می‌دانند که باید شفافیت بیشتری نسبت به آنچه در سیستم عامل‌هایشان اتفاق می افتد، داشته باشند، اما من اعتقاد راسخ دارم که، برای اینکه این شفافیت واقعی باشد، باید بین سیستم عامل‌ها، همکاران مستقل تحلیل گر و بررسی‌های تجربی همکاری صورت گیرد”.
شاهکاری که متأسفانه تصور آن راحت تر از محقق شدن آن است. وی گفت: “در حال حاضر که سیستم عامل‌ها تفسیر بیش از حد گسترده ای از قوانین مربوط به حفظ حریم خصوصی داده‌های نوپا مانند GDPR و قانون حریم خصوصی مصرف کننده در کالیفرنیا دارند، و تحت ادعای حفاظت از حریم خصوصی و امنیت داده‌ها اساساً به محققان مستقل اجازه‌ی دسترسی به داده‌ها را نمی‌دهند، مشکلات اندکی در این میان وجود دارد”.
یا حتی نادیده گرفتن مسئله‌ی مهم جعبه سیاه – به این معنا که به گفته‌ی یاور بطحایی، مجله‌ی فناوری حقوق دانشگاه هاروارد، “ممکن است توضیح اینکه چگونه یک هوش مصنوعی که حجم عظیمی از داده‌ها را داخلی کرده برای آن تصمیم می‌گیرد غیرممکن باشد” – عملکرد داخلی این الگوریتم‌ها اغلب به عنوان اسرار تجاری کسب و کار تلقی می‌شود.
بطحایی ادامه داد: “درک هوش مصنوعی که به الگوریتم‌های یادگیری ماشین، مانند شبکه‌های عصبی عمیق، متکی است به اندازه‌ی درک پیچیدگی مغز انسان دشوار است. هیچ راه ساده‌ای برای ترسیم روند تصمیم گیری در مورد این شبکه‌های پیچیده‌ی نورون مصنوعی وجود ندارد.”
مورد Compas مربوط به سال 2016 را به عنوان مثال در نظر بگیرید. هوش مصنوعی Compas الگوریتمی است که برای پیشنهاد مدت زمان محکومیت در پرونده‌های کیفری بر اساس تعدادی از عوامل و متغیرهای مربوط به زندگی و سابقه‌ی کیفری متهم، به قضات طراحی شده است. در سال 2016، این هوش مصنوعی به قاضی دادگاه ویسکانسین پیشنهاد کرد که اریک ال لومیس به دلایل تجاری خصوصی محرمانه‌ و به دلیل “فرار از یک افسر” به مدت شش سال از کار برکنار شود. پس از آن لومیس با این استدلال که ماهیت مبهم روند تصمیم گیری هوش مصنوعی Compas حقوق دادرسی قانون اساسی وی را نقض می‌کند، از این دولت شکایت کرد‌؛ زیرا او نه می‌تواند احکام آن را بررسی کند و نه به چالش بکشد. دادگاه عالی ویسکانسین سرانجام علیه لومیس حکم صادر کرد و اظهار داشت که وی حتی در صورت عدم کمک هوش مصنوعی مذکور نیز همین حکم را دریافت می‌کرد.
اما الگوریتم‌هایی که گروه‌های فیس بوک را پیشنهاد می‌دهند می‌توانند به اندازه‌ی الگوریتم‌هایی که حداقل مجازات زندان را توصیه می‌کنند خطرناک باشند – به ویژه هنگامی که صحبت از گسترش افراط گرایی در رسانه‌های اجتماعی مدرن می‌شود.
سناتور کریس کوونز پیش از جلسه دادرسی به POLITICO گفت: “سیستم عامل‌های رسانه‌های اجتماعی از الگوریتم‌هایی استفاده می‌کنند که بر آنچه که میلیاردها نفر هر روز می‌خوانند، تماشا و درباره‌ی آن‌ها فکر می‌کنند تاثیر می‌گذارد، اما ما درباره‌ی عملکرد این سیستم‌ها و تأثیر آن‌ها بر جامعه‌ی خود چیز زیادی نمی‌دانیم. زیاد می‌شنویم که این الگوریتم‌ها اطلاعات نادرست را تقویت، قطبیدگی سیاسی را تغذیه و ما را منحرف و منزوی می‌کنند”.
در حالی که فیسبوک دائماً تلاش‌های مداوم خود برای حذف پست‌های گروه‌های نفرت و سرکوب هماهنگی آن‌ها با استفاده از سیستم عامل خود را منتشر می‌کند، حتی گزارش داخلی این شرکت استدلال می‌کند که تقریباً به اندازه‌ی کافی تلاش نکرده است تا موج افراط گرایی در سایت را مهار کند.
همانطور که روزنامه نگار و نویسنده‌ی فرهنگ جنگ سالاران، تالیا لاوین، در گفتگوی خود با Engadget به آن اشاره کرده است، سیستم عامل فیسبوک مزیتی برای تلاش‌های تامین نیروی انسانی گروه‌های نفرت بوده است. “در گذشته، آن‌ها تنها به مجله‌های کاغذی، توزیع در نمایشگاه‌های اسلحه، کنفرانس‌هایی که مجبور بودند به راحتی با مردم در فضاهای فیزیکی قرار بگیرند و به خیابان‌هایی از افرادی که احتمالاً علاقه مند به پیام آن‌ها بودند محدود می‌شدند”.
از طرف دیگر، الگوریتم‌های پیشنهادی فیسبوک چنین محدودیتی ندارند – مگر اینکه عمداً غیرفعال شوند تا از بروز هرج و مرج هنگفت در انتخابات ریاست جمهوری بحث برانگیز جلوگیری کنند.
لاوین گفت: “مطمئناً طی پنج سال گذشته، شاهد این اوضاع افراط گرایانه بوده ایم که فکر می‌کنم واقعاً ارتباطی با رسانه‌های اجتماعی دارد و می‌دانم که الگوریتم‌ها مهم هستند اما آن‌ها تنها گرداننده‌‌ی اینجا نیستند”.
لاوین به جلسه‌ی دادرسی شهادت از دکتر جوآن دونووان، مدیر تحقیقات در دانشکده‌ی دولت کندی در دانشگاه هاروارد، و به انحلال سریع شبکه‌های خبری مستقل محلی همراه با ظهور یک بستر رسانه‌های اجتماعی یکپارچه مانند فیسبوک به عنوان عامل کمک کننده اشاره می‌کند.
وی ادامه داد: “شما بستری را در اختیار دارید که می‌تواند روزانه به میلیون‌ها نفر اطلاعات غلط، تئوری‌های توطئه، و همچنین سخنان افراطی را ‌بدهد و می‌دهد. این مقیاس گسترده ای است که ارتباط زیادی با جایی که ما قرار داریم دارد.”
برای نمونه‌هایی از این مورد، فقط کافی است به پاسخ قاطعانه‌ی فیسبوک در مورد ” دزدی آرا را متوقف کنید” نگاهی بیندازید، یک جنبش آنلاین که پس از انتخابات پدیدار و به عنوان مسبب شورش 6 ژانویه کپیتال هیل شناخته شده است. همانطور که در یک بررسی داخلی مشخص شد، این شرکت نتوانست به اندازه‌ی کافی تهدید را تشخیص یا اقدامات مقتضی در پاسخ به آن انجام دهد.
لاوین توضیح داد، دستورالعمل‌های فیسبوک تا حد زیادی در جهت شناسایی رفتارهای نامعتبر مانند ارسال پیام یکسره به تعداد زیادی دریافت کننده، حساب‌های جعلی، و مواردی از این دست طراحی شده اند. آن‌ها هیچ دستورالعملی در مورد فعالیت‌های معتبر افرادی که به نام خودشان افراط گرایی و رفتارهای مخرب انجام می دهند، ندارند”.
وی ادامه داد: “دزدی آرا را متوقف کنید” مثال بسیار خوبی از‌ افزایش ماه‌ به ماه گسترش شبکه‌های اجتماعی است. وی گفت: “شما این نظریه‌های توطئه که خشم مردم را شعله ور می‌کرد منتشر کرده و سپس این نوع رویدادهای پیشرو را در چندین شهر که در آن‌ها با رهگذران و ضد معترضان با خشونت رفتار می‌کردید، برگزار کردید. شما افرادی را در مقابل افراد به کاملاً مسلح نشان می‌دادید و در مدت زمان مشابهی اعتراضات ضد حکومت نظامی داشتید که آن‌ها نیز کاملاً مسلح بودند. این منجر به پخش شدن واقعی گروه‌های مختلف افراط گرایانه – از کسانی که با واکسن زدن مخالف هستند گرفته تا ملی گرایان سفیدپوست – و برقراری ارتباط آن‌ها با یکدیگر شد”.
اگرچه در مورد فن آوری مدرن تر از Rolodex بسیار بی فایده است، اما برخی از اعضای کنگره مصمم هستند حداقل تلاش خود را انجام دهند.
در اواخر ماه مارس، دو نماینده از نمایندگان برجسته‌ی دموکرات مجلس، آنا اشو (CA 18) و تام مالینوفسکی (NJ 7)، قانون محافظت از آمریکایی‌ها در برابر الگوریتم‌های خطرناک را با حمایت مالی مجدد معرفی کردند، که “باعث می‌شود سیستم عامل‌های بزرگ رسانه‌های اجتماعی پاسخگوی الگوریتم توسعه‌ی محتوای مضر و رادیکالیزه که منجر به خشونت آفلاین می‌شود، باشند.”
نماینده اشو در بیانیه ای مطبوعاتی گفت: “وقتی شرکت‌های رسانه‌های اجتماعی محتوای افراطی و گمراه کننده را در سیستم عامل خود تقویت می‌کنند، همانطور که در 6 ژانویه دیدیم، عواقب آن می‌تواند زیانبار باشد. وقت آن است که کنگره وارد عمل شود و این سیستم عامل‌ها پاسخگو باشند. به همین دلیل من افتخار می‌کنم که با نمایندگان همکاری کنم.
مالینوفسکی به سختی ماده‌ی 230 قانون عادت ارتباطات را اصلاح می‌کند، قانونی که شرکت‌های فناوری را از مسئولیت حقوقی مرتبط با محتوای تولید شده توسط کاربر مصون می‌کند، بنابراین اگر الگوریتم‌هایشان اطلاعات نادرست را که منجر به خشونت آفلاین می‌شود گسترش دهند، شرکت‌ها مسئول هستند.”
در واقع اگر الگوریتم آن‌ها برای “تقویت یا پیشنهاد محتوای مستقیماً مربوط به پرونده ای که شامل تداخل در حقوق مدنی است” ؛ غفلت از جلوگیری از تداخل در حقوق شهروندی (42 U..C. 1986) ؛ و در مواردی که شامل اقدامات تروریسم بین المللی باشد (18 U.S.C. 2333) استفاده شود، این قانون یک شرکت رسانه‌ی اجتماعی را مسئول می‌داند. ”
اگر این عمل آن را به قانون تبدیل کند، می‌تواند یک دلیل ارزشمند برای ایجاد انگیزه در مدیران عامل رسانه‌های اجتماعی غیرمستقیم باشد، اما دکتر نونکه اصرار دارد که قبل از بازگشت به هدر دادن وقت برای تکرار مکررات، تحقیقات بیشتر در مورد چگونگی عملکرد این الگوریتم‌ها در دنیای واقعی لازم است. این کار حتی ممکن است به قانونگذاران کمک کند تا قوانین فنی موثرتری را در آینده تنظیم کنند.
وی اظهار داشت: “داشتن شفافیت و پاسخگویی نه تنها به نفع مردم است بلکه فکر می‌کنم برای این پلتفرم نیز مفید باشد. اگر تحقیقات بیشتری در مورد آنچه واقعاً در سیستم آن‌ها اتفاق می افتد وجود داشته باشد، می‌توان از تحقیقات برای اطلاع رسانی سیستم‌های تنظیم مقررات مناسب استفاده کرد، پلتفرم‌ها نمی‌خواهند در موقعیتی قرار بگیرند که قانون یا مقررات پیشنهادی در سطح فدرال وجود داشته باشد که آن‌ها را از نیل به هدف باز دارد”.
نونکه ادامه داد: “سابقه‌ی همکاری شبیه به این وجو دارد: همکاری علوم اجتماعی بین فیسبوک و محققان. ما برای اینکه بتوانیم به موضوعاتی درباره‌ی تقویت الگوریتمی رسیدگی کنیم، به تحقیقات بیشتری نیاز داریم و این تحقیقات مستقل مورد اعتماد، برای درک بهتر آنچه اتفاق می افتد نیاز است. “

مطالب مرتبط

دیدگاه شما چیست؟