روکیداروکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
می‌خوانید: چگونه الگوریتم‌های پیشنهادی رسانه‌های اجتماعی باعث نفرت پراکنی می‌شوند؟
اطلاع‌رسانی آپدیت‌ها
تغییر اندازه فونتAa
تغییر اندازه فونتAa
روکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
Search
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
© تمامی حقوق برای رسانه روکیدا محفوظ است.

روکیدا - عمومی

عمومی

چگونه الگوریتم‌های پیشنهادی رسانه‌های اجتماعی باعث نفرت پراکنی می‌شوند؟

فرشته داورپناه
فرشته داورپناه
انتشار: جمعه , ۱۷ اردیبهشت ۱۴۰۰ ساعت ۲۰:۱۱
12 دقیقه
hate

شرایط آنقدر بد می‌شود که حتی کنگره نیز اقدام به بررسی می‌کند.
هفته‌ی گذشته، مجلس سنا در جلسات دادرسی پیرامون خطرات احتمالی بوجود آمده توسط تقویت و تعصبات الگوریتمی، میزبان تعدادی از شخصیت‌های مهم شرکت رسانه‌های اجتماعی بود. در حالی که آن جلسه تقریباً بلافاصله به سیرک حزبی افشاگری شکایات مجلل تبدیل شد، سناتورهای دموکرات موفق شدند کمی بر روی چگونگی کمک این الگوریتم‌های پیشنهادی به گسترش اطلاعات نادرست آنلاین و ایدئولوژی‌های افراطی تمرکز کنند. مسائل و مشکلات بوجود آمده توسط الگوریتم‌های اجتماعی به خوبی شناخته و مستند شده اند. بنابراین، ما واقعاً در مورد آن چه خواهیم کرد؟
دکتر برندی نونکه، مدیر آزمایشگاه سیاست سیتریس در دانشگاه برکلی کالیفرنیا، در مصاحبه با Engadget گفت: “بنابراین فکر می‌کنم برای پاسخ به این سوال، یک مسئله اساسی وجود دارد که باید اتفاق بیفتد: ما به محققان مستقل بیشتری نیاز داریم که بتوانند سیستم عامل‌ها و رفتار آن‌ها را تجزیه و تحلیل کنند”. شرکت‌های رسانه‌های اجتماعی “می‌دانند که باید شفافیت بیشتری نسبت به آنچه در سیستم عامل‌هایشان اتفاق می افتد، داشته باشند، اما من اعتقاد راسخ دارم که، برای اینکه این شفافیت واقعی باشد، باید بین سیستم عامل‌ها، همکاران مستقل تحلیل گر و بررسی‌های تجربی همکاری صورت گیرد”.
شاهکاری که متأسفانه تصور آن راحت تر از محقق شدن آن است. وی گفت: “در حال حاضر که سیستم عامل‌ها تفسیر بیش از حد گسترده ای از قوانین مربوط به حفظ حریم خصوصی داده‌های نوپا مانند GDPR و قانون حریم خصوصی مصرف کننده در کالیفرنیا دارند، و تحت ادعای حفاظت از حریم خصوصی و امنیت داده‌ها اساساً به محققان مستقل اجازه‌ی دسترسی به داده‌ها را نمی‌دهند، مشکلات اندکی در این میان وجود دارد”.
یا حتی نادیده گرفتن مسئله‌ی مهم جعبه سیاه – به این معنا که به گفته‌ی یاور بطحایی، مجله‌ی فناوری حقوق دانشگاه هاروارد، “ممکن است توضیح اینکه چگونه یک هوش مصنوعی که حجم عظیمی از داده‌ها را داخلی کرده برای آن تصمیم می‌گیرد غیرممکن باشد” – عملکرد داخلی این الگوریتم‌ها اغلب به عنوان اسرار تجاری کسب و کار تلقی می‌شود.
بطحایی ادامه داد: “درک هوش مصنوعی که به الگوریتم‌های یادگیری ماشین، مانند شبکه‌های عصبی عمیق، متکی است به اندازه‌ی درک پیچیدگی مغز انسان دشوار است. هیچ راه ساده‌ای برای ترسیم روند تصمیم گیری در مورد این شبکه‌های پیچیده‌ی نورون مصنوعی وجود ندارد.”
مورد Compas مربوط به سال 2016 را به عنوان مثال در نظر بگیرید. هوش مصنوعی Compas الگوریتمی است که برای پیشنهاد مدت زمان محکومیت در پرونده‌های کیفری بر اساس تعدادی از عوامل و متغیرهای مربوط به زندگی و سابقه‌ی کیفری متهم، به قضات طراحی شده است. در سال 2016، این هوش مصنوعی به قاضی دادگاه ویسکانسین پیشنهاد کرد که اریک ال لومیس به دلایل تجاری خصوصی محرمانه‌ و به دلیل “فرار از یک افسر” به مدت شش سال از کار برکنار شود. پس از آن لومیس با این استدلال که ماهیت مبهم روند تصمیم گیری هوش مصنوعی Compas حقوق دادرسی قانون اساسی وی را نقض می‌کند، از این دولت شکایت کرد‌؛ زیرا او نه می‌تواند احکام آن را بررسی کند و نه به چالش بکشد. دادگاه عالی ویسکانسین سرانجام علیه لومیس حکم صادر کرد و اظهار داشت که وی حتی در صورت عدم کمک هوش مصنوعی مذکور نیز همین حکم را دریافت می‌کرد.
اما الگوریتم‌هایی که گروه‌های فیس بوک را پیشنهاد می‌دهند می‌توانند به اندازه‌ی الگوریتم‌هایی که حداقل مجازات زندان را توصیه می‌کنند خطرناک باشند – به ویژه هنگامی که صحبت از گسترش افراط گرایی در رسانه‌های اجتماعی مدرن می‌شود.
سناتور کریس کوونز پیش از جلسه دادرسی به POLITICO گفت: “سیستم عامل‌های رسانه‌های اجتماعی از الگوریتم‌هایی استفاده می‌کنند که بر آنچه که میلیاردها نفر هر روز می‌خوانند، تماشا و درباره‌ی آن‌ها فکر می‌کنند تاثیر می‌گذارد، اما ما درباره‌ی عملکرد این سیستم‌ها و تأثیر آن‌ها بر جامعه‌ی خود چیز زیادی نمی‌دانیم. زیاد می‌شنویم که این الگوریتم‌ها اطلاعات نادرست را تقویت، قطبیدگی سیاسی را تغذیه و ما را منحرف و منزوی می‌کنند”.
در حالی که فیسبوک دائماً تلاش‌های مداوم خود برای حذف پست‌های گروه‌های نفرت و سرکوب هماهنگی آن‌ها با استفاده از سیستم عامل خود را منتشر می‌کند، حتی گزارش داخلی این شرکت استدلال می‌کند که تقریباً به اندازه‌ی کافی تلاش نکرده است تا موج افراط گرایی در سایت را مهار کند.
همانطور که روزنامه نگار و نویسنده‌ی فرهنگ جنگ سالاران، تالیا لاوین، در گفتگوی خود با Engadget به آن اشاره کرده است، سیستم عامل فیسبوک مزیتی برای تلاش‌های تامین نیروی انسانی گروه‌های نفرت بوده است. “در گذشته، آن‌ها تنها به مجله‌های کاغذی، توزیع در نمایشگاه‌های اسلحه، کنفرانس‌هایی که مجبور بودند به راحتی با مردم در فضاهای فیزیکی قرار بگیرند و به خیابان‌هایی از افرادی که احتمالاً علاقه مند به پیام آن‌ها بودند محدود می‌شدند”.
از طرف دیگر، الگوریتم‌های پیشنهادی فیسبوک چنین محدودیتی ندارند – مگر اینکه عمداً غیرفعال شوند تا از بروز هرج و مرج هنگفت در انتخابات ریاست جمهوری بحث برانگیز جلوگیری کنند.
لاوین گفت: “مطمئناً طی پنج سال گذشته، شاهد این اوضاع افراط گرایانه بوده ایم که فکر می‌کنم واقعاً ارتباطی با رسانه‌های اجتماعی دارد و می‌دانم که الگوریتم‌ها مهم هستند اما آن‌ها تنها گرداننده‌‌ی اینجا نیستند”.
لاوین به جلسه‌ی دادرسی شهادت از دکتر جوآن دونووان، مدیر تحقیقات در دانشکده‌ی دولت کندی در دانشگاه هاروارد، و به انحلال سریع شبکه‌های خبری مستقل محلی همراه با ظهور یک بستر رسانه‌های اجتماعی یکپارچه مانند فیسبوک به عنوان عامل کمک کننده اشاره می‌کند.
وی ادامه داد: “شما بستری را در اختیار دارید که می‌تواند روزانه به میلیون‌ها نفر اطلاعات غلط، تئوری‌های توطئه، و همچنین سخنان افراطی را ‌بدهد و می‌دهد. این مقیاس گسترده ای است که ارتباط زیادی با جایی که ما قرار داریم دارد.”
برای نمونه‌هایی از این مورد، فقط کافی است به پاسخ قاطعانه‌ی فیسبوک در مورد ” دزدی آرا را متوقف کنید” نگاهی بیندازید، یک جنبش آنلاین که پس از انتخابات پدیدار و به عنوان مسبب شورش 6 ژانویه کپیتال هیل شناخته شده است. همانطور که در یک بررسی داخلی مشخص شد، این شرکت نتوانست به اندازه‌ی کافی تهدید را تشخیص یا اقدامات مقتضی در پاسخ به آن انجام دهد.
لاوین توضیح داد، دستورالعمل‌های فیسبوک تا حد زیادی در جهت شناسایی رفتارهای نامعتبر مانند ارسال پیام یکسره به تعداد زیادی دریافت کننده، حساب‌های جعلی، و مواردی از این دست طراحی شده اند. آن‌ها هیچ دستورالعملی در مورد فعالیت‌های معتبر افرادی که به نام خودشان افراط گرایی و رفتارهای مخرب انجام می دهند، ندارند”.
وی ادامه داد: “دزدی آرا را متوقف کنید” مثال بسیار خوبی از‌ افزایش ماه‌ به ماه گسترش شبکه‌های اجتماعی است. وی گفت: “شما این نظریه‌های توطئه که خشم مردم را شعله ور می‌کرد منتشر کرده و سپس این نوع رویدادهای پیشرو را در چندین شهر که در آن‌ها با رهگذران و ضد معترضان با خشونت رفتار می‌کردید، برگزار کردید. شما افرادی را در مقابل افراد به کاملاً مسلح نشان می‌دادید و در مدت زمان مشابهی اعتراضات ضد حکومت نظامی داشتید که آن‌ها نیز کاملاً مسلح بودند. این منجر به پخش شدن واقعی گروه‌های مختلف افراط گرایانه – از کسانی که با واکسن زدن مخالف هستند گرفته تا ملی گرایان سفیدپوست – و برقراری ارتباط آن‌ها با یکدیگر شد”.
اگرچه در مورد فن آوری مدرن تر از Rolodex بسیار بی فایده است، اما برخی از اعضای کنگره مصمم هستند حداقل تلاش خود را انجام دهند.
در اواخر ماه مارس، دو نماینده از نمایندگان برجسته‌ی دموکرات مجلس، آنا اشو (CA 18) و تام مالینوفسکی (NJ 7)، قانون محافظت از آمریکایی‌ها در برابر الگوریتم‌های خطرناک را با حمایت مالی مجدد معرفی کردند، که “باعث می‌شود سیستم عامل‌های بزرگ رسانه‌های اجتماعی پاسخگوی الگوریتم توسعه‌ی محتوای مضر و رادیکالیزه که منجر به خشونت آفلاین می‌شود، باشند.”
نماینده اشو در بیانیه ای مطبوعاتی گفت: “وقتی شرکت‌های رسانه‌های اجتماعی محتوای افراطی و گمراه کننده را در سیستم عامل خود تقویت می‌کنند، همانطور که در 6 ژانویه دیدیم، عواقب آن می‌تواند زیانبار باشد. وقت آن است که کنگره وارد عمل شود و این سیستم عامل‌ها پاسخگو باشند. به همین دلیل من افتخار می‌کنم که با نمایندگان همکاری کنم.
مالینوفسکی به سختی ماده‌ی 230 قانون عادت ارتباطات را اصلاح می‌کند، قانونی که شرکت‌های فناوری را از مسئولیت حقوقی مرتبط با محتوای تولید شده توسط کاربر مصون می‌کند، بنابراین اگر الگوریتم‌هایشان اطلاعات نادرست را که منجر به خشونت آفلاین می‌شود گسترش دهند، شرکت‌ها مسئول هستند.”
در واقع اگر الگوریتم آن‌ها برای “تقویت یا پیشنهاد محتوای مستقیماً مربوط به پرونده ای که شامل تداخل در حقوق مدنی است” ؛ غفلت از جلوگیری از تداخل در حقوق شهروندی (42 U..C. 1986) ؛ و در مواردی که شامل اقدامات تروریسم بین المللی باشد (18 U.S.C. 2333) استفاده شود، این قانون یک شرکت رسانه‌ی اجتماعی را مسئول می‌داند. ”
اگر این عمل آن را به قانون تبدیل کند، می‌تواند یک دلیل ارزشمند برای ایجاد انگیزه در مدیران عامل رسانه‌های اجتماعی غیرمستقیم باشد، اما دکتر نونکه اصرار دارد که قبل از بازگشت به هدر دادن وقت برای تکرار مکررات، تحقیقات بیشتر در مورد چگونگی عملکرد این الگوریتم‌ها در دنیای واقعی لازم است. این کار حتی ممکن است به قانونگذاران کمک کند تا قوانین فنی موثرتری را در آینده تنظیم کنند.
وی اظهار داشت: “داشتن شفافیت و پاسخگویی نه تنها به نفع مردم است بلکه فکر می‌کنم برای این پلتفرم نیز مفید باشد. اگر تحقیقات بیشتری در مورد آنچه واقعاً در سیستم آن‌ها اتفاق می افتد وجود داشته باشد، می‌توان از تحقیقات برای اطلاع رسانی سیستم‌های تنظیم مقررات مناسب استفاده کرد، پلتفرم‌ها نمی‌خواهند در موقعیتی قرار بگیرند که قانون یا مقررات پیشنهادی در سطح فدرال وجود داشته باشد که آن‌ها را از نیل به هدف باز دارد”.
نونکه ادامه داد: “سابقه‌ی همکاری شبیه به این وجو دارد: همکاری علوم اجتماعی بین فیسبوک و محققان. ما برای اینکه بتوانیم به موضوعاتی درباره‌ی تقویت الگوریتمی رسیدگی کنیم، به تحقیقات بیشتری نیاز داریم و این تحقیقات مستقل مورد اعتماد، برای درک بهتر آنچه اتفاق می افتد نیاز است. “

برچسب‌ها:شبکه های اجتماعی
مطلب قبلی تبلت Honor Tablet X7 جدیدا معرفی شده آنر چه مشخصاتی دارد؟ تبلت Honor Tablet X7 جدیدا معرفی شده آنر چه مشخصاتی دارد؟
مطلب بعدی آیا گوشی ردمی نوت 10 پرو فایوجی به بازار خواهد آمد؟ آیا گوشی ردمی نوت 10 پرو فایوجی به بازار خواهد آمد؟
بدون دیدگاه

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جدیدترین مطالب

اپل با شعار Sleek Peek کاربران را برای WWDC 2025 هیجان زده کرد
اپل با شعار Sleek Peek کاربران را برای WWDC 2025 هیجان زده کرد
4 دقیقه
پشتیبانی Galaxy Z Fold 7 از شارژ بی سیم Qi2 تایید شد
پشتیبانی Galaxy Z Fold 7 از شارژ بی سیم Qi2 تایید شد
3 دقیقه
همه چیز درباره iOS 26 و قابلیت های جدید آیفون
همه چیز درباره iOS 26 و قابلیت های جدید آیفون
6 دقیقه
۷ راهکار برای بیدار ماندن بعد از یک شب بی خوابی
۷ راهکار برای بیدار ماندن بعد از یک شب بی خوابی
7 دقیقه
همه چیز درباره macOS 26 Tahoe و آنچه باید از اپل انتظار داشته باشیم
همه چیز درباره macOS 26 Tahoe و آنچه باید از اپل انتظار داشته باشیم
8 دقیقه
قابلیت ساخت چت بات هوش مصنوعی در واتساپ اندروید در راه است
قابلیت ساخت چت بات هوش مصنوعی در واتساپ اندروید در راه است
4 دقیقه
تویوتا Aygo X مدل 2025 با نسخه GR Sport معرفی شد
تویوتا Aygo X مدل 2025 با نسخه GR Sport معرفی شد
5 دقیقه
با این ترفند ساده، ChatGPT را تبدیل به دستیار شخصی خودتان کنید
با این ترفند ساده، ChatGPT را تبدیل به دستیار شخصی خودتان کنید
6 دقیقه
نام نسخه بعدی macOS احتمالا Tahoe خواهد بود
نام نسخه بعدی macOS احتمالا Tahoe خواهد بود
4 دقیقه
نسخه قدرتمند Snapdragon X2 Elite با پردازنده 18 هسته ای و رم 64 گیگابایتی در حال تست است
نسخه قدرتمند Snapdragon X2 Elite با پردازنده 18 هسته ای و رم 64 گیگابایتی در حال تست است
4 دقیقه

پربازدید‌ترین‌ها

رونمایی از بی ام و M2 CS مدل 2026 با قدرت بیشتر و وزن کمتر
رونمایی از بی ام و M2 CS مدل 2026 با قدرت بیشتر و وزن کمتر
4 دقیقه
ویژگی امنیتی جدید اندروید 16 زودتر از انتظار فعال شد1
ویژگی امنیتی جدید اندروید 16 زودتر از انتظار فعال شد
4 دقیقه
اپل اپلیکیشن مخصوص بازی را در iOS 19 معرفی می کندگ
اپل اپلیکیشن مخصوص بازی را در iOS 19 معرفی می کند
3 دقیقه
آیفون 17 با همان پردازنده آیفون 16 عرضه می شود
آیفون 17 با همان پردازنده آیفون 16 عرضه می شود
4 دقیقه
متا قصد دارد ارزیابی ریسک محصولات را به هوش مصنوعی بسپارد
متا قصد دارد ارزیابی ریسک محصولات را به هوش مصنوعی بسپارد
4 دقیقه
اپل احتمالا از iOS 26 در رویداد WWDC 2025 رونمایی می کند
اپل احتمالا از iOS 26 در رویداد WWDC 2025 رونمایی می کند
4 دقیقه
گلکسی S26 احتمالا دستیار هوش مصنوعی جمینی را کنار می گذارد
گلکسی S26 احتمالا دستیار هوش مصنوعی جمینی را کنار می گذارد
4 دقیقه
آیفون 17 پرو مکس با طراحی جدید و بدنه ضخیم تر دیده شد
آیفون 17 پرو مکس با طراحی جدید و بدنه ضخیم تر دیده شد
3 دقیقه
پایان راه برای فورد فوکوس
پایان راه برای فورد فوکوس ST
3 دقیقه
آی او اس 26 با ویژگی جدید باتری معرفی می شود
آی او اس 26 با ویژگی جدید باتری معرفی می شود
4 دقیقه
هوش مصنوعی Grok وارد تلگرام شد
هوش مصنوعی Grok وارد تلگرام شد
5 دقیقه
اپل در WWDC 2025 ممکن است خبری از هوش مصنوعی ندهد
اپل در WWDC 2025 ممکن است خبری از هوش مصنوعی ندهد
4 دقیقه
وزن آیفون 17 ایر و جزئیاتی از بدنه و باتری فاش شد
وزن آیفون 17 ایر و جزئیاتی از بدنه و باتری فاش شد
4 دقیقه
آیفون 17 معمولی بدون تراشه جدید و رم 12 گیگابایتی عرضه می شود scaled
آیفون 17 معمولی بدون تراشه جدید و رم 12 گیگابایتی عرضه می شود
4 دقیقه

جالب از سراسر وب

محافظ برق

برقکار شبانه روزی

بیمه موبایل معلم

سرور مجازی ایران

خرید جم فری فایر

آموزش مکانیک خودرو

داکر

خرید سی پی فوری

هاست ووکامرس ارزان

آموزش مکانیک خودرو

تعمیر تلویزیون هیمالیا

خرید رمان انگلیسی زبان اصلی

مرتبط با همین مطلب

ترفند جدید اپل نوت با یک دکمه ساده دو قابلیت پنهان را فعال می کند
آموزش

ترفند جدید اپل نوت با یک دکمه ساده دو قابلیت پنهان را فعال می کند

3 دقیقه
۵ روش فوق العاده برای استفاده بهتر از ChatGPT
آموزش

۵ روش فوق العاده برای استفاده بهتر از ChatGPT

6 دقیقه
آموزش کامل استفاده از Quick Share در اندروید
آموزش

آموزش کامل استفاده از Quick Share در اندروید

5 دقیقه
گوگل فلو تی وی تجربه ای تازه از تماشای ویدیوهای هوش مصنوعی
نرم افزار و اپلیکیشن

گوگل فلو تی وی تجربه ای تازه از تماشای ویدیوهای هوش مصنوعی

6 دقیقه
روکیداروکیدا
© تمامی حقوق برای رسانه روکیدا محفوظ است.
Welcome Back!

Sign in to your account

Username or Email Address
Password

رمز عبور را فراموش کرده اید؟