آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاحهای بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسکهای این فناوری درحال پیشرفت به صدا درآوردهاند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.
به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیتهای جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این تواناییها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشینهایی با شناخت سطح انسانی دیده میشود.
شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود میگوید مدلهای جدید خطر متوسطی برای مسائل مربوط به سلاحهای شیمیایی، بیولوژیکی، رادیولوژیکی و هستهای (CBRN) دارند.
سطح «متوسط» بالاترین ردهای است که شرکت OpenAI تابهحال به مدلهای خود داده؛ یعنی این فناوری «بهطرز معناداری کمکهایی ارائه میکند که توانایی متخصصان در زمینههای پیشرفته مرتبط با CBRN را افزایش میدهد تا بتوانند تهدید CBRN ایجاد کنند.»
به گفته کارشناسان، این نرمافزار هوش مصنوعی با قابلیتهای پیشرفتهتر، مانند توانایی اجرای استدلالهای گامبهگام، خطر سوءاستفاده بازیگران بد را افزایش میدهد.
این هشدارها درحالی مطرحشده که شرکتهای فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستمهای هوش مصنوعی پیشرفته رقابت میکنند؛ زیرا بهدنبال ایجاد نرمافزاری هستند که بتواند در جایگاه «عاملهایی» اقدام کند که به انسانها در تکمیل وظایف و هدایت زندگیشان کمک خواهد کرد.
لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن
این موضوع به تلاشهایی برای قانونگذاری درباره شرکتهای هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحهای به نام SB 1047 درگرفته است که از سازندگان مدلهای هوش مصنوعی میخواهد اقداماتی را برای بهحداقلرساندن خطر استفاده از مدلهایشان برای توسعه سلاحهای بیولوژیکی انجام دهند.
برخی سرمایهگذاران خطرپذیر و گروههای فناوری، ازجمله شرکت OpenAI، هشدار دادهاند این قانون پیشنهادی میتواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.