کاهش علاقه کاربران به چتباتهای هوش مصنوعی
کاهش علاقه مصرفکنندگان به چتباتها باعث کاهش درآمدهای بخش هوش مصنوعی در سهماهه دوم تجاری سال 2024 شد.
یک مطالعه تحقیقاتی اخیراً با عنوان "مدلهای زبان بزرگتر و قابل آموزش کمتر قابل اعتماد میشوند" در مجله علمی Nature نشان داد که چت باتهای هوش مصنوعی در طول زمان با انتشار مدلهای جدیدتر اشتباهات بیشتری انجام میدهند.
لکسین ژو، یکی از نویسندگان این مطالعه، این نظریه را مطرح کرد که از آنجایی که مدلهای هوش مصنوعی بهینهسازی شدهاند تا همیشه پاسخهای قابل باوری ارائه دهند، پاسخهای بهظاهر درست در اولویت قرار میگیرند و بدون توجه به دقت به کاربر نهایی ارائه میشوند.
این توهمات هوش مصنوعی خود را تقویت میکنند و بهمرور زمان ترکیب میشوند؛ پدیدهای که با استفاده از مدلهای زبان بزرگ قدیمیتر برای آموزش مدلهای زبان بزرگ جدیدتر که منجر به "فروپاشی مدل" میشود تشدید میشود.
Mathieu Roy ویراستار و نویسنده به کاربران هشدار داد که زیاد به این ابزارها اعتماد نکنند و همیشه نتایج جستجوی ایجاد شده توسط هوش مصنوعی را برای ناهماهنگی بررسی کنند:
"در حالی که هوش مصنوعی میتواند برای تعدادی از کارها مفید باشد، برای کاربران مهم است که اطلاعاتی را که از مدلهای هوش مصنوعی دریافت میکنند تأیید کنند. هنگام استفاده از ابزارهای هوش مصنوعی، بررسی واقعیت باید گامی در فرایند همه افراد باشد. وقتی چتباتهایی خدمات مشتری درگیر هستند، این موضوع پیچیدهتر میشود."
برای بدتر شدن اوضاع، روی اظهار داشت: "اغلب هیچ راهی برای بررسی اطلاعات وجود ندارد، مگر اینکه از خود چت بات بپرسید."
پلتفرم هوش مصنوعی گوگل در فوریه 2024 پس از اینکه هوش مصنوعی شروع به تولید تصاویر نادرست تاریخی کرد، مورد تمسخر قرار گرفت. نمونههایی از این کار شامل نشاندادن رنگینپوستان بهعنوان افسران نازی و ایجاد تصاویر نادرست از شخصیتهای مشهور تاریخی بود.
متأسفانه، حوادثی مانند این با تکرار فعلی هوش مصنوعی و مدلهای زبانی بزرگ بسیار رایج است. مدیران صنعت، از جمله جنسن هوانگ، مدیرعامل انویدیا، پیشنهاد کردهاند مدلهای هوش مصنوعی انجام تحقیقات و ارائه منابع برای هر پاسخی که به کاربر داده میشود را انجام دهند تا توهمات هوش مصنوعی کاهش پیدا کند.
نوشته شده توسط تیم تحلیلی خبری ملی چنج