طبق گزارشی که توسط NPR منتشر شده، شرکت متا در حال برنامه ریزی برای استفاده گسترده از هوش مصنوعی به جای نیروهای انسانی برای ارزیابی ریسک محصولات خود است. اسناد داخلی که در اختیار NPR قرار گرفته نشان می دهد که این شرکت می خواهد تا 90 درصد از فرآیند بررسی ریسک را به هوش مصنوعی واگذار کند.
نکته قابل توجه این است که متا حتی بررسی خطرات مربوط به نوجوانان و مسائل حساس مربوط به محتوای خشونت آمیز، اطلاعات نادرست و سایر موضوعات مربوط به “یکپارچگی محتوا” را نیز به هوش مصنوعی واگذار خواهد کرد.
نگرانی کارشناسان از حذف نظارت انسانی
برخی از کارکنان فعلی و سابق متا که با NPR گفتگو کرده اند هشدار داده اند که این تصمیم ممکن است باعث شود برخی ریسک های جدی نادیده گرفته شوند. به گفته آن ها، انسان می تواند نشانه هایی را شناسایی کند که هوش مصنوعی قادر به تشخیص آن ها نیست.
تاکنون، تمامی قابلیت ها و بهروزرسانی های پلتفرم های متا مانند اینستاگرام و واتس اپ، پیش از عرضه عمومی توسط انسان بررسی می شدند. اما طبق اطلاعات NPR، متا در دو ماه اخیر به شدت استفاده از هوش مصنوعی را افزایش داده است.
اکنون تیم های توسعه باید یک فرم شامل مشخصات محصول را پر کنند و آن را به سیستم هوش مصنوعی ارائه دهند. این سیستم در لحظه تصمیم گیری می کند و بخش هایی را که نیاز به بررسی بیشتر دارند مشخص می کند. تا زمانی که این مشکلات برطرف نشود، محصول اجازه انتشار نخواهد داشت.
نظارت کمتر یعنی ریسک بیشتر
یکی از مدیران پیشین متا در گفتگو با NPR تاکید کرده که کاهش سطح بررسی به معنای افزایش خطرات است. به گفته او، وقتی نظارت انسانی کاهش یابد، احتمال اینکه مشکلات جدید پیش از وقوع شناسایی و رفع شوند بسیار پایین می آید.
در پاسخ به این موضوع، متا در بیانیه ای اعلام کرده که در موضوعات پیچیده و جدید همچنان از تخصص انسانی استفاده خواهد کرد. اما در تصمیم های کم ریسک، هوش مصنوعی وظیفه ارزیابی را بر عهده می گیرد.
انتشار گزارش های جدید و تغییرات در سیاست های محتوا
این تصمیم تنها چند روز پس از انتشار گزارش های فصلی جدید متا درباره “یکپارچگی” منتشر شده است. این گزارش ها اولین سری بعد از تغییرات جدید در سیاست های حذف محتوا و بررسی صحت اطلاعات هستند.
طبق همین گزارش، میزان حذف محتوا کاهش یافته است. اما در عین حال، تعداد گزارش های مربوط به آزار و اذیت و محتوای خشن اندکی افزایش پیدا کرده است. این موضوع ممکن است نتیجه مستقیم کاهش نقش انسان در نظارت بر محتوا باشد.
با این حال، متا بر استفاده از ابزارهای هوش مصنوعی اصرار دارد تا فرآیند بررسی را سریع تر، خودکارتر و در مقیاس وسیع تر انجام دهد. اما پرسش مهم اینجاست که آیا حذف عامل انسانی در زمینه هایی حساس مثل امنیت کاربران، تصمیم درستی خواهد بود یا نه.