تکنولوژیعلم و دانش

استعفای رئیس گروه حفاظت از بشریت «اُپن‌ای‌آی»

پایگاه خبری -تحلیلی تازه ها   رئیس گروه حفاظت از بشریت شرکت هوش مصنوعی اُپن ای‌آی با بیان این که نگرانی‌های ایمنی اهمیت خود را در برابر محصولات پر زرق و برق از دست داده‌اند، از سمت خود استعفا داد.

به گزارش تازه ها ، در تابستان سال ۲۰۲۳، شرکت هوش مصنوعی اُپن‌ای‌آی(OpenAI) یک گروه ابرتنظیم(Superalignment) ایجاد کرد که هدف آن هدایت و کنترل سیستم‌های هوش مصنوعی آینده بود که می‌توانند آنقدر قدرتمند باشند که منجر به انقراض بشر شوند. کمتر از یک سال بعد، این گروه منحل شد.

به نقل از انگجت، اُپن ای‌آی به بلومبرگ گفته است که این شرکت در حال ادغام گروه در تلاش‌های تحقیقاتی خود برای کمک به شرکت در دستیابی به اهداف ایمنی خود است. اما مجموعه‌ای از توییت‌های جان لیک(Jan Leike)، یکی از رهبران تیم که به تازگی استعفا داده، تنش‌های داخلی بین تیم ایمنی و شرکت را فاش کرده است.

در بیانیه‌ای که در روز جمعه در شبکه اجتماعی ایکس منتشر شد، لیک گفت که تیم ابرتنظیم برای بدست آوردن منابع برای انجام تحقیقات مبارزه کرده است. او نوشت: ساخت دستگاه‌های هوشمندتر از انسان، یک تلاش ذاتا خطرناک است. اُپن ای‌آی ‌مسئولیت بزرگی را از طرف تمام بشریت بر عهده دارد. اما در طول سال‌های گذشته، فرهنگ ایمنی و فرآیندها اهمیت خود را از دست داده است.

نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا