شرایط آنقدر بد میشود که حتی کنگره نیز اقدام به بررسی میکند.
هفتهی گذشته، مجلس سنا در جلسات دادرسی پیرامون خطرات احتمالی بوجود آمده توسط تقویت و تعصبات الگوریتمی، میزبان تعدادی از شخصیتهای مهم شرکت رسانههای اجتماعی بود. در حالی که آن جلسه تقریباً بلافاصله به سیرک حزبی افشاگری شکایات مجلل تبدیل شد، سناتورهای دموکرات موفق شدند کمی بر روی چگونگی کمک این الگوریتمهای پیشنهادی به گسترش اطلاعات نادرست آنلاین و ایدئولوژیهای افراطی تمرکز کنند. مسائل و مشکلات بوجود آمده توسط الگوریتمهای اجتماعی به خوبی شناخته و مستند شده اند. بنابراین، ما واقعاً در مورد آن چه خواهیم کرد؟
دکتر برندی نونکه، مدیر آزمایشگاه سیاست سیتریس در دانشگاه برکلی کالیفرنیا، در مصاحبه با Engadget گفت: “بنابراین فکر میکنم برای پاسخ به این سوال، یک مسئله اساسی وجود دارد که باید اتفاق بیفتد: ما به محققان مستقل بیشتری نیاز داریم که بتوانند سیستم عاملها و رفتار آنها را تجزیه و تحلیل کنند”. شرکتهای رسانههای اجتماعی “میدانند که باید شفافیت بیشتری نسبت به آنچه در سیستم عاملهایشان اتفاق می افتد، داشته باشند، اما من اعتقاد راسخ دارم که، برای اینکه این شفافیت واقعی باشد، باید بین سیستم عاملها، همکاران مستقل تحلیل گر و بررسیهای تجربی همکاری صورت گیرد”.
شاهکاری که متأسفانه تصور آن راحت تر از محقق شدن آن است. وی گفت: “در حال حاضر که سیستم عاملها تفسیر بیش از حد گسترده ای از قوانین مربوط به حفظ حریم خصوصی دادههای نوپا مانند GDPR و قانون حریم خصوصی مصرف کننده در کالیفرنیا دارند، و تحت ادعای حفاظت از حریم خصوصی و امنیت دادهها اساساً به محققان مستقل اجازهی دسترسی به دادهها را نمیدهند، مشکلات اندکی در این میان وجود دارد”.
یا حتی نادیده گرفتن مسئلهی مهم جعبه سیاه – به این معنا که به گفتهی یاور بطحایی، مجلهی فناوری حقوق دانشگاه هاروارد، “ممکن است توضیح اینکه چگونه یک هوش مصنوعی که حجم عظیمی از دادهها را داخلی کرده برای آن تصمیم میگیرد غیرممکن باشد” – عملکرد داخلی این الگوریتمها اغلب به عنوان اسرار تجاری کسب و کار تلقی میشود.
بطحایی ادامه داد: “درک هوش مصنوعی که به الگوریتمهای یادگیری ماشین، مانند شبکههای عصبی عمیق، متکی است به اندازهی درک پیچیدگی مغز انسان دشوار است. هیچ راه سادهای برای ترسیم روند تصمیم گیری در مورد این شبکههای پیچیدهی نورون مصنوعی وجود ندارد.”
مورد Compas مربوط به سال 2016 را به عنوان مثال در نظر بگیرید. هوش مصنوعی Compas الگوریتمی است که برای پیشنهاد مدت زمان محکومیت در پروندههای کیفری بر اساس تعدادی از عوامل و متغیرهای مربوط به زندگی و سابقهی کیفری متهم، به قضات طراحی شده است. در سال 2016، این هوش مصنوعی به قاضی دادگاه ویسکانسین پیشنهاد کرد که اریک ال لومیس به دلایل تجاری خصوصی محرمانه و به دلیل “فرار از یک افسر” به مدت شش سال از کار برکنار شود. پس از آن لومیس با این استدلال که ماهیت مبهم روند تصمیم گیری هوش مصنوعی Compas حقوق دادرسی قانون اساسی وی را نقض میکند، از این دولت شکایت کرد؛ زیرا او نه میتواند احکام آن را بررسی کند و نه به چالش بکشد. دادگاه عالی ویسکانسین سرانجام علیه لومیس حکم صادر کرد و اظهار داشت که وی حتی در صورت عدم کمک هوش مصنوعی مذکور نیز همین حکم را دریافت میکرد.
اما الگوریتمهایی که گروههای فیس بوک را پیشنهاد میدهند میتوانند به اندازهی الگوریتمهایی که حداقل مجازات زندان را توصیه میکنند خطرناک باشند – به ویژه هنگامی که صحبت از گسترش افراط گرایی در رسانههای اجتماعی مدرن میشود.
سناتور کریس کوونز پیش از جلسه دادرسی به POLITICO گفت: “سیستم عاملهای رسانههای اجتماعی از الگوریتمهایی استفاده میکنند که بر آنچه که میلیاردها نفر هر روز میخوانند، تماشا و دربارهی آنها فکر میکنند تاثیر میگذارد، اما ما دربارهی عملکرد این سیستمها و تأثیر آنها بر جامعهی خود چیز زیادی نمیدانیم. زیاد میشنویم که این الگوریتمها اطلاعات نادرست را تقویت، قطبیدگی سیاسی را تغذیه و ما را منحرف و منزوی میکنند”.
در حالی که فیسبوک دائماً تلاشهای مداوم خود برای حذف پستهای گروههای نفرت و سرکوب هماهنگی آنها با استفاده از سیستم عامل خود را منتشر میکند، حتی گزارش داخلی این شرکت استدلال میکند که تقریباً به اندازهی کافی تلاش نکرده است تا موج افراط گرایی در سایت را مهار کند.
همانطور که روزنامه نگار و نویسندهی فرهنگ جنگ سالاران، تالیا لاوین، در گفتگوی خود با Engadget به آن اشاره کرده است، سیستم عامل فیسبوک مزیتی برای تلاشهای تامین نیروی انسانی گروههای نفرت بوده است. “در گذشته، آنها تنها به مجلههای کاغذی، توزیع در نمایشگاههای اسلحه، کنفرانسهایی که مجبور بودند به راحتی با مردم در فضاهای فیزیکی قرار بگیرند و به خیابانهایی از افرادی که احتمالاً علاقه مند به پیام آنها بودند محدود میشدند”.
از طرف دیگر، الگوریتمهای پیشنهادی فیسبوک چنین محدودیتی ندارند – مگر اینکه عمداً غیرفعال شوند تا از بروز هرج و مرج هنگفت در انتخابات ریاست جمهوری بحث برانگیز جلوگیری کنند.
لاوین گفت: “مطمئناً طی پنج سال گذشته، شاهد این اوضاع افراط گرایانه بوده ایم که فکر میکنم واقعاً ارتباطی با رسانههای اجتماعی دارد و میدانم که الگوریتمها مهم هستند اما آنها تنها گردانندهی اینجا نیستند”.
لاوین به جلسهی دادرسی شهادت از دکتر جوآن دونووان، مدیر تحقیقات در دانشکدهی دولت کندی در دانشگاه هاروارد، و به انحلال سریع شبکههای خبری مستقل محلی همراه با ظهور یک بستر رسانههای اجتماعی یکپارچه مانند فیسبوک به عنوان عامل کمک کننده اشاره میکند.
وی ادامه داد: “شما بستری را در اختیار دارید که میتواند روزانه به میلیونها نفر اطلاعات غلط، تئوریهای توطئه، و همچنین سخنان افراطی را بدهد و میدهد. این مقیاس گسترده ای است که ارتباط زیادی با جایی که ما قرار داریم دارد.”
برای نمونههایی از این مورد، فقط کافی است به پاسخ قاطعانهی فیسبوک در مورد ” دزدی آرا را متوقف کنید” نگاهی بیندازید، یک جنبش آنلاین که پس از انتخابات پدیدار و به عنوان مسبب شورش 6 ژانویه کپیتال هیل شناخته شده است. همانطور که در یک بررسی داخلی مشخص شد، این شرکت نتوانست به اندازهی کافی تهدید را تشخیص یا اقدامات مقتضی در پاسخ به آن انجام دهد.
لاوین توضیح داد، دستورالعملهای فیسبوک تا حد زیادی در جهت شناسایی رفتارهای نامعتبر مانند ارسال پیام یکسره به تعداد زیادی دریافت کننده، حسابهای جعلی، و مواردی از این دست طراحی شده اند. آنها هیچ دستورالعملی در مورد فعالیتهای معتبر افرادی که به نام خودشان افراط گرایی و رفتارهای مخرب انجام می دهند، ندارند”.
وی ادامه داد: “دزدی آرا را متوقف کنید” مثال بسیار خوبی از افزایش ماه به ماه گسترش شبکههای اجتماعی است. وی گفت: “شما این نظریههای توطئه که خشم مردم را شعله ور میکرد منتشر کرده و سپس این نوع رویدادهای پیشرو را در چندین شهر که در آنها با رهگذران و ضد معترضان با خشونت رفتار میکردید، برگزار کردید. شما افرادی را در مقابل افراد به کاملاً مسلح نشان میدادید و در مدت زمان مشابهی اعتراضات ضد حکومت نظامی داشتید که آنها نیز کاملاً مسلح بودند. این منجر به پخش شدن واقعی گروههای مختلف افراط گرایانه – از کسانی که با واکسن زدن مخالف هستند گرفته تا ملی گرایان سفیدپوست – و برقراری ارتباط آنها با یکدیگر شد”.
اگرچه در مورد فن آوری مدرن تر از Rolodex بسیار بی فایده است، اما برخی از اعضای کنگره مصمم هستند حداقل تلاش خود را انجام دهند.
در اواخر ماه مارس، دو نماینده از نمایندگان برجستهی دموکرات مجلس، آنا اشو (CA 18) و تام مالینوفسکی (NJ 7)، قانون محافظت از آمریکاییها در برابر الگوریتمهای خطرناک را با حمایت مالی مجدد معرفی کردند، که “باعث میشود سیستم عاملهای بزرگ رسانههای اجتماعی پاسخگوی الگوریتم توسعهی محتوای مضر و رادیکالیزه که منجر به خشونت آفلاین میشود، باشند.”
نماینده اشو در بیانیه ای مطبوعاتی گفت: “وقتی شرکتهای رسانههای اجتماعی محتوای افراطی و گمراه کننده را در سیستم عامل خود تقویت میکنند، همانطور که در 6 ژانویه دیدیم، عواقب آن میتواند زیانبار باشد. وقت آن است که کنگره وارد عمل شود و این سیستم عاملها پاسخگو باشند. به همین دلیل من افتخار میکنم که با نمایندگان همکاری کنم.
مالینوفسکی به سختی مادهی 230 قانون عادت ارتباطات را اصلاح میکند، قانونی که شرکتهای فناوری را از مسئولیت حقوقی مرتبط با محتوای تولید شده توسط کاربر مصون میکند، بنابراین اگر الگوریتمهایشان اطلاعات نادرست را که منجر به خشونت آفلاین میشود گسترش دهند، شرکتها مسئول هستند.”
در واقع اگر الگوریتم آنها برای “تقویت یا پیشنهاد محتوای مستقیماً مربوط به پرونده ای که شامل تداخل در حقوق مدنی است” ؛ غفلت از جلوگیری از تداخل در حقوق شهروندی (42 U..C. 1986) ؛ و در مواردی که شامل اقدامات تروریسم بین المللی باشد (18 U.S.C. 2333) استفاده شود، این قانون یک شرکت رسانهی اجتماعی را مسئول میداند. ”
اگر این عمل آن را به قانون تبدیل کند، میتواند یک دلیل ارزشمند برای ایجاد انگیزه در مدیران عامل رسانههای اجتماعی غیرمستقیم باشد، اما دکتر نونکه اصرار دارد که قبل از بازگشت به هدر دادن وقت برای تکرار مکررات، تحقیقات بیشتر در مورد چگونگی عملکرد این الگوریتمها در دنیای واقعی لازم است. این کار حتی ممکن است به قانونگذاران کمک کند تا قوانین فنی موثرتری را در آینده تنظیم کنند.
وی اظهار داشت: “داشتن شفافیت و پاسخگویی نه تنها به نفع مردم است بلکه فکر میکنم برای این پلتفرم نیز مفید باشد. اگر تحقیقات بیشتری در مورد آنچه واقعاً در سیستم آنها اتفاق می افتد وجود داشته باشد، میتوان از تحقیقات برای اطلاع رسانی سیستمهای تنظیم مقررات مناسب استفاده کرد، پلتفرمها نمیخواهند در موقعیتی قرار بگیرند که قانون یا مقررات پیشنهادی در سطح فدرال وجود داشته باشد که آنها را از نیل به هدف باز دارد”.
نونکه ادامه داد: “سابقهی همکاری شبیه به این وجو دارد: همکاری علوم اجتماعی بین فیسبوک و محققان. ما برای اینکه بتوانیم به موضوعاتی دربارهی تقویت الگوریتمی رسیدگی کنیم، به تحقیقات بیشتری نیاز داریم و این تحقیقات مستقل مورد اعتماد، برای درک بهتر آنچه اتفاق می افتد نیاز است. “