news

ایمنی هوش مصنوعی در دستور کار قرار دارد!

1403-04-02 17:16:41

یکی از بنیان‌گذاران و دانشمند ارشد سابق OpenAI، Ilya Sutskever، و مهندس سابق OpenAI، Daniel Levy، با دانیل گراس، سرمایه‌گذار و شریک سابق شتاب‌دهنده استارتاپ Y Combinator، قصد دارند برنامۀ Safe Superintelligence, Inc. (SSI) را ایجاد کنند. این برنامه در راستای ایمنی تکنولوژی هوش مصنوعی است.


SSI یک شرکت ایالات متحده واقع در پالوآلتو است. سه نفر از بنیان‌گذاران آن در یک اطلاعیه آنلاین در 19 ژوئن گفتند که هوش مصنوعی (AI) را با توسعه ایمنی و قابلیت‌ها به صورت پشت سر هم ارتقا خواهد داد.


Sustkever و Gross قبلاً نگران ایمنی هوش مصنوعی بودند


Sutskever در 14 مه OpenAI را ترک کرد. او در اخراج سام آلتمن مدیرعامل شرکت نقش داشت و پس از کناره‌گیری از هیئت‌مدیره پس از بازگشت آلتمن، نقشی جانبی در شرکت ایفا کرد. دانیل لوی از جمله محققانی بود که OpenAI را چند روز پس از Sutskever ترک کرد.


Sutskever و Jan Leike رهبران تیم Superalignment OpenAI بودند که در ژوئیه 2023 برای بررسی نحوه هدایت و کنترل سیستم‌های هوش مصنوعی انتخاب شدند. چنین سیستم‌هایی به‌عنوان هوش عمومی مصنوعی (AGI) نامیده می‌شوند. OpenAI  20 درصد از قدرت محاسباتی خود را به تیم Superalignment در زمان ایجاد آن اختصاص داد.


Leike همچنین OpenAI را در ماه مه ترک کرد و اکنون سرپرست تیمی در استارت‌آپ هوش مصنوعی Anthropic با پشتیبانی آمازون را برعهده دارد. OpenAI در یک پست طولانی X توسط رئیس شرکت، گرگ براکمن، از اقدامات احتیاطی مرتبط با ایمنی خود دفاع کرد.


محققان سابق OpenAI از جمله دانشمندان زیادی هستند که نگران مسیر آینده هوش مصنوعی هستند. ویتالیک بوترتین، یکی از بنیان‌گذاران اتریوم، AGI را در میان جابه‌جایی کارکنان در OpenAI «خطرناک» خواند. او افزود، با این حال "چنین مدل‌هایی از نظر خطرات نابودگر بسیار پایین‌تر از شرکت‌های بزرگ و نظامی هستند".


پیش‌بینی می‌شود این اقدام بسیاری از نگرانی‌ها در خصوص خطرات هوش مصنوعی را برای کاربران برطرف کند.


نوشته شده توسط تیم تحلیلی خبری ملی چنج

مجله های مرتبط