هوش مصنوعی با سرعتی بیسابقه در حال پیشرفت است و هر نسل جدید، قابلیتهای بیشتری را به ارمغان میآورد. یکی از این پیشرفتها، GPT-4o است، مدل هوش مصنوعی تولید شده توسط OpenAI که در نسخه آلفای جدید ChatGPT با قابلیتهای صوتی پیشرفته ارائه شده است. این مدل اولین مدلی است که هم بر اساس دادههای صوتی و هم بر اساس دادههای متنی و تصویری آموزش دیده، اما این ترکیب دادهها گاهی باعث رفتارهای غیرمنتظره میشود. به عنوان مثال، GPT-4o ممکن است صدای فردی که با آن صحبت میکند را تقلید کند یا در وسط مکالمه به طور ناگهانی فریاد بزند.
در گزارشی با عنوان «red teaming»، OpenAI برخی از این رفتارهای عجیب را بررسی کرده است. به عنوان نمونه، تقلید صدا بیشتر زمانی رخ میدهد که فرد در محیطی با نویز بالا مانند داخل خودرو با GPT-4o صحبت میکند. این نشان میدهد که چنین مشکلاتی نیازمند بررسیهای دقیقتر و قوانین جدیدتری برای جلوگیری از سوءاستفادههای احتمالی هستند.
دلایل رفتارهای غیرمنتظره GPT-4o
OpenAI معتقد است که رفتارهای عجیب GPT-4o به دلیل تلاش این مدل برای درک گفتار نادرست است. این توضیح منطقی به نظر میرسد. در حالت فعلی صدای پیشرفته، این رفتارها وجود ندارند زیرا OpenAI اقدامات لازم برای جلوگیری از این مشکلات را انجام داده است. با این حال، برخی دیگر از ویژگیهای عجیب نیز گزارش شدهاند.
برای مثال، GPT-4o گاهی صداها و افکتهای صوتی نامناسبی مانند نالههای غیرمعمول، جیغهای خشن و حتی صدای شلیک گلوله تولید میکند. OpenAI اعلام کرده است که در بیشتر مواقع، این مدل درخواستهای تولید جلوههای صوتی را رد میکند اما اذعان دارد که برخی درخواستها ممکن است از فیلترها عبور کنند.
یکی دیگر از نگرانیها، نقض حقوق کپیرایت موسیقی است. اگرچه OpenAI فیلترهایی برای جلوگیری از این موضوع اضافه کرده، اما احتمالاً GPT-4o در آموزش خود از محتوای دارای کپیرایت استفاده کرده است. در نسخه آلفای محدود صدای پیشرفته، از مدل خواسته شده که از آواز خواندن خودداری کند تا از تقلید سبک و لحن هنرمندان معروف جلوگیری شود.
توسعه هوش مصنوعی با قابلیتهای صوتی همچنان با چالشهای زیادی همراه است. از یک سو، کاربران از قابلیتهای جدید GPT-4o برای تولید محتوای صوتی و تصویری استقبال میکنند، اما از سوی دیگر، این قابلیتها نگرانیهای جدی در زمینه حریم خصوصی، حقوق مالکیت فکری و امنیت ایجاد کردهاند. OpenAI برای رفع این چالشها، باید بهطور مداوم فیلترها و تدابیر حفاظتی جدیدی را اجرا کند و به کاربران اطمینان دهد که محتوای آنها به درستی محافظت میشود.
همچنین، آموزش و آگاهیرسانی به مردم درباره نحوه استفاده صحیح و ایمن از این فناوری بسیار حیاتی است. کاربران باید بدانند چگونه از ابزارهای هوش مصنوعی بهرهبرداری کنند بدون اینکه به حریم خصوصی خود یا دیگران آسیب برسانند. این آموزشها باید در مدارس، دانشگاهها و حتی رسانههای عمومی ارائه شوند.
در نهایت، دولتها و نهادهای تنظیمگر نیز باید نقش فعالی در این زمینه داشته باشند. بدون وجود قوانین و مقررات مناسب، هوش مصنوعی میتواند به چالشهای جدی اجتماعی و اخلاقی منجر شود. تنظیمگران باید پیشرفتها را به دقت دنبال کنند و سیاستهایی را ایجاد کنند که همزمان با جلوگیری از سوءاستفادهها، نوآوریها را نیز تشویق کند.