خبر فوری: بریتانیا نام مؤسسه ایمنی هوش مصنوعی را تغییر داد

جداسازی ایمنی از امنیت هوش مصنوعی دشوار است، کارشناسان می‌گویند

تحرکات اخیر ایالات متحده و بریتانیا برای تعریف ایمنی هوش مصنوعی به عنوان یک مسئله امنیتی می‌تواند خطرناک باشد، بسته به اینکه رهبران در نهایت “ایمنی” را چگونه تعریف کنند، کارشناسان به آکسیوس می‌گویند

چرا این موضوع اهمیت دارد: یک تعریف گسترده از ایمنی هوش مصنوعی می‌تواند شامل مسائلی مانند تولید محتوای خطرناک توسط مدل‌های هوش مصنوعی، مانند دستورالعمل‌هایی برای ساخت سلاح یا ارائه راهنمایی‌های فنی نادرست باشد

اما یک رویکرد باریک‌تر ممکن است نگرانی‌های اخلاقی، مانند تعصب در تصمیم‌گیری‌های هوش مصنوعی را نادیده بگیرد

اخبار مهم: ایالات متحده و بریتانیا در اجلاس پاریس در این ماه از امضای یک اعلامیه بین‌المللی هوش مصنوعی که بر رویکرد “باز”، “شامل” و “اخلاقی” در توسعه هوش مصنوعی تأکید می‌کرد، خودداری کردند

معاون رئیس‌جمهور جی دی ونس در این اجلاس گفت که “سیاست‌های هوش مصنوعی حامی رشد” باید بر مقررات ایمنی هوش مصنوعی اولویت داشته باشد

بریتانیا به تازگی مؤسسه ایمنی هوش مصنوعی خود را به مؤسسه امنیت هوش مصنوعی تغییر نام داده است

و مؤسسه ایمنی هوش مصنوعی ایالات متحده ممکن است به زودی با کاهش نیروی کار مواجه شود

تصویر کلی: ایمنی و امنیت هوش مصنوعی اغلب همپوشانی دارند، اما اینکه دقیقاً در کجا تلاقی می‌کنند به دیدگاه بستگی دارد

کارشناسان به‌طور کلی توافق دارند که امنیت هوش مصنوعی بر حفاظت از مدل‌ها در برابر تهدیدات خارجی مانند هک، نشت داده‌ها و مسمومیت مدل‌ها تمرکز دارد

اما ایمنی هوش مصنوعی به طور کلی به‌طور آزادانه‌تری تعریف می‌شود

برخی استدلال می‌کنند که باید اطمینان حاصل کند که مدل‌ها به طور قابل اعتمادی عمل می‌کنند — مانند توقف یک خودروی خودران در چراغ‌های قرمز یا یک ابزار پزشکی مبتنی بر هوش مصنوعی که به درستی علائم بیماری را شناسایی می‌کند

دیگران دیدگاه وسیع‌تری دارند و نگرانی‌های اخلاقی مانند دیپ‌فیک‌های تولید شده توسط هوش مصنوعی، تصمیم‌گیری‌های تعصب‌آمیز و تلاش‌های فرار از زندان که از تدابیر حفاظتی عبور می‌کنند را در بر می‌گیرند

بله، اما: تعاریف بیش از حد سخت‌گیرانه می‌تواند نتیجه معکوس داشته باشد، کریس سستی‌تو، بنیان‌گذار و مدیرعامل شرکت امنیت هوش مصنوعی هیدن‌لیر، به آکسیوس می‌گوید

“ما نمی‌توانیم بی‌توجه باشیم و فقط بگوییم، ‘این به سمت سوگیری است و این به سمت محتوا’ است.” سستیتو می‌گوید

“این می‌تواند به سرعت از کنترل خارج شود.” بین خطوط: مشخص نیست که کدام ابتکارات ایمنی هوش مصنوعی ممکن است در حالی که ایالات متحده رویکرد خود را تغییر می‌دهد، اولویت کمتری پیدا کنند

در بریتانیا، برخی از کارهای مرتبط با ایمنی — مانند جلوگیری از تولید مواد سوءاستفاده جنسی از کودکان توسط هوش مصنوعی — به نظر می‌رسد که ادامه دارد، می‌گوید دین شررتس، پژوهشگر هوش مصنوعی و معمار راه‌حل‌های کارکنان در HackerOne

سستیتو ابراز نگرانی می‌کند که ایمنی هوش مصنوعی به عنوان یک مسئله سانسور دیده شود، که بازتاب‌دهنده بحث‌های کنونی در پلتفرم‌های اجتماعی است

اما او می‌گوید ایمنی هوش مصنوعی شامل موارد بسیار بیشتری است، از جمله جلوگیری از افشای اسرار هسته‌ای در مدل‌ها

واقعیت: این تغییرات سیاستی ممکن است به طور معناداری بر مقررات هوش مصنوعی تأثیر نگذارد

“صادقانه بگویم، هر چیزی که تا به حال انجام داده‌ایم، به طور عمده بی‌اثر بوده است.” سستیتو می‌گوید

آنچه که در حال مشاهده هستیم: پژوهشگران هوش مصنوعی و هکرهای اخلاقی در حال حاضر نگرانی‌های ایمنی را در آزمایش‌های امنیتی ادغام کرده‌اند — کاری که بعید است کند شود، به ویژه با توجه به انتقادات اخیر از تیم‌های قرمز هوش مصنوعی در یک مقاله DEF CON

اما بزرگ‌ترین نشانه‌ها ممکن است از خود شرکت‌های هوش مصنوعی بیاید، زیرا آنها سیاست‌های خود را در مورد اینکه به چه کسانی می‌فروشند و چه مسائل امنیتی را در برنامه‌های پاداش باگ اولویت می‌دهند، اصلاح می‌کنند

خبر: بریتانیا نام مؤسسه ایمنی هوش مصنوعی را تغییر می‌دهد
تصویر: سارا گریلو/اکسیوس
بریتانیا در حال آماده‌سازی برای حذف “ایمنی” از نام مؤسسه هوش مصنوعی خود و جایگزینی آن با امنیت است، منابع به اکسیوس گفته‌اند

چرا این موضوع اهمیت دارد: این اقدام در حالی صورت می‌گیرد که دولت ترامپ به دنبال بازنگری کامل رویکرد ایالات متحده به هوش مصنوعی و دور شدن از ایمنی به عنوان هدف اصلی است

**چگونه ایمنی هوش مصنوعی در دولت در حال نابودی است**

تصویر: مائورا لوش/اکسیوس

جمهوری‌خواهان زمانی مایل بودند که ایمنی را به عنوان بخشی کلیدی از گفتگوها درباره هوش مصنوعی مطرح کنند، اما دولت رئیس‌جمهور ترامپ نشان داده است که این دوره به سرعت در حال تغییر است

چرا این موضوع اهمیت دارد: نوآوری، امنیت ملی و رقابت نیروهای محرکه‌ای هستند که نحوه تفکر کاخ سفید درباره سیاست‌های هوش مصنوعی را شکل می‌دهند

**ایمنی هوش مصنوعی نیاز به بازنگری دارد، گروه هکرها می‌گوید**

تصویر: مائورا لوش/اکسیوس

یک گروه برجسته از هکرها هشدار می‌دهد که بدون یک بازنگری اساسی در شیوه‌های امنیتی فعلی، آسیب‌پذیری‌های هوش مصنوعی به خطرات جدی ادامه خواهند داد

چرا این موضوع اهمیت دارد: هکرهای با نیت خوب می‌گویند هنوز هم ورود به سیستم‌ها و ابزارهای هوش مصنوعی بسیار آسان است — و اگر آن‌ها بتوانند وارد شوند، تصور کنید که افراد بد چه کاری می‌توانند انجام دهند.

منبع: Axios

دسته‌بندی شده در: