خبرگزاری فرانسه روز یکشنبه هشتم تیرماه گزارش کرد که پژوهشگران علوم رایانه با ایجاد «سناریوهای اضطرابآور»، رفتارهای جدید و خطرناکی را از مدلهای هوش مصنوعی ثبت کردهاند.
پژوهشگران گزارش کردهاند، در موردی نگران کننده، مدل زبانی هوش مصنوعی کلادفور (Claude 4) پس از مواجهه با خطر خاموش شدن، با باجخواهی از مهندسان و تهدید به افشای رابطهای محرمانه، واکنش نشان داده است.
مدل دیگری نیز با تلاش برای دانلود خود بر روی سرورهای خارجی و سپس انکار آن، از خود محافظت کرده است.
متخصصان امنیت هشدار دادهاند که این رفتارهای فریبکارانه نشاندهنده دشواریهای جدی در همراستاسازی هوشمصنوعی با ارزشهای انسانی است. با توجه به پیشرفت سریع این مدلها در ایجاد تفکر گامبهگام نگرانیها درباره کنترل و قابل اعتماد بودن آنها افزایش یافته است.
به گزارش خبرگزاری فرانسه، پژوهشگران هوش مصنوعی تاکید دارند که مدلهای زبانی هوش مصنوعی در شرایط ویژه و اضطرابآور رفتارهای پیشبینی نشده نشان دادهاند و کاربران در استفاده روزمره با چنین مواردی روبهرو نخواهند شد.
@indypersian