هوش مصنوعی ایمن تر می‌شود؟/ نگران امنیت اطلاعات خود نباشید
هوش مصنوعی ایمن تر می‌شود؟/ نگران امنیت اطلاعات خود نباشید
با ایجاد این هیأت ایمنی مستقل، OpenAI رویکردی مشابه هیأت نظارت متا را در پیش گرفته است که برخی از تصمیمات سیاست محتوای متا را بررسی کرده و می‌تواند احکامی صادر کند که متا ملزم به پیروی از آن‌ها باشد. هیچ یک از اعضای هیأت نظارت در هیأت مدیره متا نیستند.

به گزارش تیکنا و به نقل از تجارت نیوز، OpenAI اعلام کرد که کمیته ایمنی و امنیت خود را به یک «کمیته نظارت مستقل» تبدیل کرده است. این کمیته جدید دارای اختیارات لازم برای به تعویق‌انداختن راه‌اندازی مدل‌ها به‌خاطر نگرانی‌های ایمنی خواهد بود. این تصمیم پس از بررسی ۹۰ روزه‌ای از فرآیندها و تدابیر ایمنی و امنیتی OpenAI گرفته شد.

کمیته نظارت مستقل به ریاست زیکو کولتر و با عضویت آدام دنجلو، پل ناکاسونه و نیکول سلینگه مان تشکیل شده است. این کمیته از سوی مدیریت شرکت درباره ارزیابی‌های ایمنی برای راه‌اندازی مدل‌های اصلی توجیه می‌شود و همراه با کل هیأت مدیره، نظارت بر راه‌اندازی مدل‌ها را انجام خواهد داد. کمیته نظارت مستقل اختیار به تعویق‌انداختن راه‌اندازی مدل‌ها را تا برطرف شدن نگرانی‌های ایمنی، دارد.

بهبود امنیت هوش مصنوعی با هیأت ایمنی OpenAI

هیأت مدیره OpenAI نشر اطلاعات دوره‌ای در مورد مسائل ایمنی و امنیت را نیز از این کمیته دریافت خواهد کرد. از آنجایی که اعضای کمیته ایمنی OpenAI فراتر از اعضای هیأت مدیره خود شرکت هستند، بنابراین ساختار و میزان استقلال این کمیته هنوز مشخص نیست.

با ایجاد این هیأت ایمنی مستقل، OpenAI رویکردی مشابه هیأت نظارت متا را در پیش گرفته است که برخی از تصمیمات سیاست محتوای متا را بررسی کرده و می‌تواند احکامی صادر کند که متا ملزم به پیروی از آن‌ها باشد. هیچ یک از اعضای هیأت نظارت در هیأت مدیره متا نیستند.

بررسی‌های کمیته ایمنی و امنیت OpenAI به فرصت‌های اضافی برای همکاری با صنعت هوش مصنوعی و دیگر صنایع و تبادل اطلاعات برای تقویت ایمنی صنعت AI کمک می‌کند. همچنین، این شرکت به دنبال راه‌های بیشتری برای به اشتراک‌گذاری و توضیح کارهای ایمنی‌اش و فرصت‌های بیشتری برای آزمایش مستقل سیستم‌هایش است.

این تغییرات نشان‌دهنده تعهد OpenAI به ایمنی و امنیت در توسعه هوش مصنوعی است. باتوجه به پیشرفت‌های سریع در این حوزه، ایجاد کمیته نظارت مستقلی می‌تواند به کاهش نگرانی‌های عمومی و افزایش اعتماد به فناوری‌های جدید کمک کند. این کمیته با بررسی دقیق و مستقل مدل‌ها، مطمئن می‌شود که هیچ مدل جدیدی بدون ارزیابی کامل ایمنی و امنیتی راه‌اندازی نمی‌شود.

مسئولیت ما، تامین امنیت مدل‌های OpenAI است

زیکو کولتر، رئیس این کمیته در این باره گفت: «ما مفتخریم که مسئولیت نظارت بر ایمنی و امنیت مدل‌های OpenAI را بر عهده داریم. هدف ما اطمینان از این است که تمامی مدل‌ها به طور کامل ارزیابی شده و هیچ خطری برای کاربران و جامعه ایجاد نمی‌کند.»

آدام دنجلو، یکی از اعضای کمیته ایمنی و امنیت، بیان کرد: «این کمیته به ما اجازه می‌دهد تا با دقت بیشتری به مسائل ایمنی بپردازیم و از راه‌اندازی مدل‌هایی که ممکن است خطراتی به همراه داشته باشد، جلوگیری کنیم. ما به همکاری با سایر اعضای این صنعت برای بهبود استانداردهای ایمنی ادامه خواهیم داد.»

این تغییرات باعث می‌شود که OpenAI با سایر شرکت‌ها و سازمان‌ها در زمینه ایمنی هوش مصنوعی همکاری و از تجربیات و دانش آن‌ها بهره‌برداری کند. این همکاری‌ها می‌تواند منجر به بهبود استانداردهای ایمنی در صنعت هوش مصنوعی و حمایت از توسعه مدل‌های ایمن‌تر و قابل اعتمادتر شود.

راه‌اندازی کمیته نظارت مستقل نشان‌دهنده تعهد OpenAI به ایجاد یک محیط امن و قابل اعتماد برای توسعه و استفاده از هوش مصنوعی است. این کمیته با بررسی دقیق و مستقل مدل‌ها، اطمینان حاصل می‌کند که تمامی آن‌ها به طور کامل ارزیابی شده و هیچ خطری برای کاربران و جامعه ایجاد نمی‌کند. این اقدام می‌تواند به کاهش نگرانی‌های عمومی و افزایش اعتماد به فناوری‌های جدید کمک کند و از توسعه مدل‌های ایمن‌تر و قابل اعتمادتر حمایت کند.