#news 💀 AIのトレーニングデータを汚染する「データポイズニング攻撃」、わずか250件の文書でLLMを操作可能と判明
AIの学習データを汚染する「データポイズニング攻撃」は、たった250件の悪意ある文書で実行可能。モデル規模に関係なくバックドア化が可能と判明し、AIの安全性に警鐘。
#news
#news
#news
#news
#news
#news
#news
#news
#news
#news