W ten prosty sposób można oszukać AI. Zaskakujące wyniki badań włoskich naukowców

Łatwo można ominąć zabezpieczenia w dużych modelach językowych (LLM) – uważają włoscy naukowcy. W efekcie modele mogą generować szkodliwe i niebezpieczne treści, takie jak np. instrukcje dotyczące tworzenia złośliwego oprogramowania lub konstruowania bomby.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *