Se riesci a bucare il modello IA Claude, Anthropic ti dà fino a 20.000 dollari


Anthropic è sempre stata attenta alla sicurezza dei suoi LLM. Ora ha inventato i Classificatori Costituzionali che proteggono input e output da richieste dannose e, dietro compenso, sta sfidando gli utenti a bucarli… Leggi tutto