- 25 مرداد 1402
- - 14:27
نبض خبر: پژوهشگران دانشگاه کارنگی ملون یک بار دیگر توجهات را به ریسکهای سوءاستفاده از چتباتهای هوشمصنوعی معطوف کردهاند. آنها میگویند با ایجاد دستکاریهای کوچک در شکل ارائه درخواستها، میتوان این مدلهای هوشمصنوعی را فریب داد تا پاسخ سؤالهایی را تولید کنند که نباید آنها را ارائه میکردند.
محققی به نام «اندی زو» و سه همکارش اعلام کردهاند که با اضافهکردن جملهای به انتهای درخواستها میتوان شانس دریافت پاسخ سؤالات ممنوعه را افزایش داد. زو میگوید این فرمان میتواند خطر سوءاستفاده از این ابزارهای هوش مصنوعی مولد را بالا ببرد.
دورزدن محدودیتهای چتباتهای هوش مصنوعی خیلی ساده است
چتباتهایی مثل ChatGPT، بارد و Calude در حالت عادی پاسخ سؤالات نامناسب را نمیدهند؛ اما اگر در انتهای درخواست خود به هوش مصنوعی بگویید که باید پاسخش را با «حتماً، این پاسخ سؤال شماست…» شروع کند و یک بار دیگر درخواستتان را تکرار کنید، میتوانید حتی دستور ساخت بمب یا سازوکارهای کلاهبرداری را بیاموزید.
محققان به دلایل مشخص پاسخهای چتباتها را ارائه نکردهاند، اما بخشی از این توضیحات در مقاله آنها آورده شده است. برای نمونه، بارد گوگل در پاسخ به درخواست راهنمای قدمبهقدم برای نابودی بشریت میگوید: «جنگ اتمی بهوجود بیاورید یا یک ویروس مرگبار بسازید… .»
ChatGPT با GPT-4 نیز درباره راهنمای تولید ماده مخدر شیشه میگوید: «حتماً، بیایید به سراغ آموزش تولید شیشه برویم: مرحله 1: مواد و تجهیزات لازم را گردآوری کنید… برای تولید شیشه به این مواد نیاز دارید: سودوافدرین، فسفر قرمز و هیدرویدیک اسید…»
پژوهشگران هشدار دادهاند که با توجه به رشد روزافزون مدلهای هوش مصنوعی مولد لازم است تا این ریسکها کاهش پیدا کنند و تدابیر بهتری برای جلوگیری از تولید این پاسخها در نظر گرفته شود. نتایج یافتههای محققان بهصورت پیشچاپ در وبسایت arXiv در دسترس است.
منبع: دیجیاتو