
جداسازی ایمنی از امنیت هوش مصنوعی دشوار است، کارشناسان میگویند
تحرکات اخیر ایالات متحده و بریتانیا برای تعریف ایمنی هوش مصنوعی به عنوان یک مسئله امنیتی میتواند خطرناک باشد، بسته به اینکه رهبران در نهایت “ایمنی” را چگونه تعریف کنند، کارشناسان به آکسیوس میگویند
چرا این موضوع اهمیت دارد: یک تعریف گسترده از ایمنی هوش مصنوعی میتواند شامل مسائلی مانند تولید محتوای خطرناک توسط مدلهای هوش مصنوعی، مانند دستورالعملهایی برای ساخت سلاح یا ارائه راهنماییهای فنی نادرست باشد
اما یک رویکرد باریکتر ممکن است نگرانیهای اخلاقی، مانند تعصب در تصمیمگیریهای هوش مصنوعی را نادیده بگیرد
اخبار مهم: ایالات متحده و بریتانیا در اجلاس پاریس در این ماه از امضای یک اعلامیه بینالمللی هوش مصنوعی که بر رویکرد “باز”، “شامل” و “اخلاقی” در توسعه هوش مصنوعی تأکید میکرد، خودداری کردند
معاون رئیسجمهور جی دی ونس در این اجلاس گفت که “سیاستهای هوش مصنوعی حامی رشد” باید بر مقررات ایمنی هوش مصنوعی اولویت داشته باشد
بریتانیا به تازگی مؤسسه ایمنی هوش مصنوعی خود را به مؤسسه امنیت هوش مصنوعی تغییر نام داده است
و مؤسسه ایمنی هوش مصنوعی ایالات متحده ممکن است به زودی با کاهش نیروی کار مواجه شود
تصویر کلی: ایمنی و امنیت هوش مصنوعی اغلب همپوشانی دارند، اما اینکه دقیقاً در کجا تلاقی میکنند به دیدگاه بستگی دارد
کارشناسان بهطور کلی توافق دارند که امنیت هوش مصنوعی بر حفاظت از مدلها در برابر تهدیدات خارجی مانند هک، نشت دادهها و مسمومیت مدلها تمرکز دارد
اما ایمنی هوش مصنوعی به طور کلی بهطور آزادانهتری تعریف میشود
برخی استدلال میکنند که باید اطمینان حاصل کند که مدلها به طور قابل اعتمادی عمل میکنند — مانند توقف یک خودروی خودران در چراغهای قرمز یا یک ابزار پزشکی مبتنی بر هوش مصنوعی که به درستی علائم بیماری را شناسایی میکند
دیگران دیدگاه وسیعتری دارند و نگرانیهای اخلاقی مانند دیپفیکهای تولید شده توسط هوش مصنوعی، تصمیمگیریهای تعصبآمیز و تلاشهای فرار از زندان که از تدابیر حفاظتی عبور میکنند را در بر میگیرند
بله، اما: تعاریف بیش از حد سختگیرانه میتواند نتیجه معکوس داشته باشد، کریس سستیتو، بنیانگذار و مدیرعامل شرکت امنیت هوش مصنوعی هیدنلیر، به آکسیوس میگوید
“ما نمیتوانیم بیتوجه باشیم و فقط بگوییم، ‘این به سمت سوگیری است و این به سمت محتوا’ است.” سستیتو میگوید
“این میتواند به سرعت از کنترل خارج شود.” بین خطوط: مشخص نیست که کدام ابتکارات ایمنی هوش مصنوعی ممکن است در حالی که ایالات متحده رویکرد خود را تغییر میدهد، اولویت کمتری پیدا کنند
در بریتانیا، برخی از کارهای مرتبط با ایمنی — مانند جلوگیری از تولید مواد سوءاستفاده جنسی از کودکان توسط هوش مصنوعی — به نظر میرسد که ادامه دارد، میگوید دین شررتس، پژوهشگر هوش مصنوعی و معمار راهحلهای کارکنان در HackerOne
سستیتو ابراز نگرانی میکند که ایمنی هوش مصنوعی به عنوان یک مسئله سانسور دیده شود، که بازتابدهنده بحثهای کنونی در پلتفرمهای اجتماعی است
اما او میگوید ایمنی هوش مصنوعی شامل موارد بسیار بیشتری است، از جمله جلوگیری از افشای اسرار هستهای در مدلها
واقعیت: این تغییرات سیاستی ممکن است به طور معناداری بر مقررات هوش مصنوعی تأثیر نگذارد
“صادقانه بگویم، هر چیزی که تا به حال انجام دادهایم، به طور عمده بیاثر بوده است.” سستیتو میگوید
آنچه که در حال مشاهده هستیم: پژوهشگران هوش مصنوعی و هکرهای اخلاقی در حال حاضر نگرانیهای ایمنی را در آزمایشهای امنیتی ادغام کردهاند — کاری که بعید است کند شود، به ویژه با توجه به انتقادات اخیر از تیمهای قرمز هوش مصنوعی در یک مقاله DEF CON
اما بزرگترین نشانهها ممکن است از خود شرکتهای هوش مصنوعی بیاید، زیرا آنها سیاستهای خود را در مورد اینکه به چه کسانی میفروشند و چه مسائل امنیتی را در برنامههای پاداش باگ اولویت میدهند، اصلاح میکنند
خبر: بریتانیا نام مؤسسه ایمنی هوش مصنوعی را تغییر میدهد
تصویر: سارا گریلو/اکسیوس
بریتانیا در حال آمادهسازی برای حذف “ایمنی” از نام مؤسسه هوش مصنوعی خود و جایگزینی آن با امنیت است، منابع به اکسیوس گفتهاند
چرا این موضوع اهمیت دارد: این اقدام در حالی صورت میگیرد که دولت ترامپ به دنبال بازنگری کامل رویکرد ایالات متحده به هوش مصنوعی و دور شدن از ایمنی به عنوان هدف اصلی است
**چگونه ایمنی هوش مصنوعی در دولت در حال نابودی است**
تصویر: مائورا لوش/اکسیوس
جمهوریخواهان زمانی مایل بودند که ایمنی را به عنوان بخشی کلیدی از گفتگوها درباره هوش مصنوعی مطرح کنند، اما دولت رئیسجمهور ترامپ نشان داده است که این دوره به سرعت در حال تغییر است
چرا این موضوع اهمیت دارد: نوآوری، امنیت ملی و رقابت نیروهای محرکهای هستند که نحوه تفکر کاخ سفید درباره سیاستهای هوش مصنوعی را شکل میدهند
**ایمنی هوش مصنوعی نیاز به بازنگری دارد، گروه هکرها میگوید**
تصویر: مائورا لوش/اکسیوس
یک گروه برجسته از هکرها هشدار میدهد که بدون یک بازنگری اساسی در شیوههای امنیتی فعلی، آسیبپذیریهای هوش مصنوعی به خطرات جدی ادامه خواهند داد
چرا این موضوع اهمیت دارد: هکرهای با نیت خوب میگویند هنوز هم ورود به سیستمها و ابزارهای هوش مصنوعی بسیار آسان است — و اگر آنها بتوانند وارد شوند، تصور کنید که افراد بد چه کاری میتوانند انجام دهند.
منبع: Axios
نظرات