news

کاهش علاقه کاربران به چت‌بات‌های هوش مصنوعی

1403-07-24 11:16:10

کاهش علاقه مصرف‌کنندگان به چت‌بات‌ها باعث کاهش درآمدهای بخش هوش مصنوعی در سه‌ماهه دوم تجاری سال 2024 شد.


یک مطالعه تحقیقاتی اخیراً با عنوان "مدل‌های زبان بزرگ‌تر و قابل آموزش کمتر قابل اعتماد می‌شوند" در مجله علمی Nature نشان داد که چت بات‌های هوش مصنوعی در طول زمان با انتشار مدل‌های جدیدتر اشتباهات بیشتری انجام می‌دهند.


لکسین ژو، یکی از نویسندگان این مطالعه، این نظریه را مطرح کرد که از آنجایی که مدل‌های هوش مصنوعی بهینه‌سازی شده‌اند تا همیشه پاسخ‌های قابل باوری ارائه دهند، پاسخ‌های به‌ظاهر درست در اولویت قرار می‌گیرند و بدون توجه به دقت به کاربر نهایی ارائه می‌شوند.


این توهمات هوش مصنوعی خود را تقویت می‌کنند و به‌مرور زمان ترکیب می‌شوند؛ پدیده‌ای که با استفاده از مدل‌های زبان بزرگ قدیمی‌تر برای آموزش مدل‌های زبان بزرگ جدیدتر که منجر به "فروپاشی مدل" می‌شود تشدید می‌شود.


Mathieu Roy ویراستار و نویسنده به کاربران هشدار داد که زیاد به این ابزارها اعتماد نکنند و همیشه نتایج جستجوی ایجاد شده توسط هوش مصنوعی را برای ناهماهنگی بررسی کنند:


"در حالی که هوش مصنوعی می‌تواند برای تعدادی از کارها مفید باشد، برای کاربران مهم است که اطلاعاتی را که از مدل‌های هوش مصنوعی دریافت می‌کنند تأیید کنند. هنگام استفاده از ابزارهای هوش مصنوعی، بررسی واقعیت باید گامی در فرایند همه افراد باشد. وقتی چت‌بات‌هایی خدمات مشتری درگیر هستند، این موضوع پیچیده‌تر می‌شود."


برای بدتر شدن اوضاع، روی اظهار داشت: "اغلب هیچ راهی برای بررسی اطلاعات وجود ندارد، مگر اینکه از خود چت بات‌ بپرسید."


پلتفرم هوش مصنوعی گوگل در فوریه 2024 پس از اینکه هوش مصنوعی شروع به تولید تصاویر نادرست تاریخی کرد، مورد تمسخر قرار گرفت. نمونه‌هایی از این کار شامل نشان‌دادن رنگین‌پوستان به‌عنوان افسران نازی و ایجاد تصاویر نادرست از شخصیت‌های مشهور تاریخی بود.


متأسفانه، حوادثی مانند این با تکرار فعلی هوش مصنوعی و مدل‌های زبانی بزرگ بسیار رایج است. مدیران صنعت، از جمله جنسن هوانگ، مدیرعامل انویدیا، پیشنهاد کرده‌اند مدل‌های هوش مصنوعی انجام تحقیقات و ارائه منابع برای هر پاسخی که به کاربر داده می‌شود را انجام دهند تا توهمات هوش مصنوعی کاهش پیدا کند.




نوشته شده توسط تیم تحلیلی خبری ملی چنج