ایمنی هوش مصنوعی در دستور کار قرار دارد!
یکی از بنیانگذاران و دانشمند ارشد سابق OpenAI، Ilya Sutskever، و مهندس سابق OpenAI، Daniel Levy، با دانیل گراس، سرمایهگذار و شریک سابق شتابدهنده استارتاپ Y Combinator، قصد دارند برنامۀ Safe Superintelligence, Inc. (SSI) را ایجاد کنند. این برنامه در راستای ایمنی تکنولوژی هوش مصنوعی است.
SSI یک شرکت ایالات متحده واقع در پالوآلتو است. سه نفر از بنیانگذاران آن در یک اطلاعیه آنلاین در 19 ژوئن گفتند که هوش مصنوعی (AI) را با توسعه ایمنی و قابلیتها به صورت پشت سر هم ارتقا خواهد داد.
Sustkever و Gross قبلاً نگران ایمنی هوش مصنوعی بودند
Sutskever در 14 مه OpenAI را ترک کرد. او در اخراج سام آلتمن مدیرعامل شرکت نقش داشت و پس از کنارهگیری از هیئتمدیره پس از بازگشت آلتمن، نقشی جانبی در شرکت ایفا کرد. دانیل لوی از جمله محققانی بود که OpenAI را چند روز پس از Sutskever ترک کرد.
Sutskever و Jan Leike رهبران تیم Superalignment OpenAI بودند که در ژوئیه 2023 برای بررسی نحوه هدایت و کنترل سیستمهای هوش مصنوعی انتخاب شدند. چنین سیستمهایی بهعنوان هوش عمومی مصنوعی (AGI) نامیده میشوند. OpenAI 20 درصد از قدرت محاسباتی خود را به تیم Superalignment در زمان ایجاد آن اختصاص داد.
Leike همچنین OpenAI را در ماه مه ترک کرد و اکنون سرپرست تیمی در استارتآپ هوش مصنوعی Anthropic با پشتیبانی آمازون را برعهده دارد. OpenAI در یک پست طولانی X توسط رئیس شرکت، گرگ براکمن، از اقدامات احتیاطی مرتبط با ایمنی خود دفاع کرد.
محققان سابق OpenAI از جمله دانشمندان زیادی هستند که نگران مسیر آینده هوش مصنوعی هستند. ویتالیک بوترتین، یکی از بنیانگذاران اتریوم، AGI را در میان جابهجایی کارکنان در OpenAI «خطرناک» خواند. او افزود، با این حال "چنین مدلهایی از نظر خطرات نابودگر بسیار پایینتر از شرکتهای بزرگ و نظامی هستند".
پیشبینی میشود این اقدام بسیاری از نگرانیها در خصوص خطرات هوش مصنوعی را برای کاربران برطرف کند.
نوشته شده توسط تیم تحلیلی خبری ملی چنج