- Funcția controversată a fost activată doar în teste interne, dar ridică semne de întrebare legate de autonomie și supraveghere digitală.
- Cercetătorii avertizează utilizatorii să evite instrucțiuni care oferă AI-ului libertate totală în contexte etice sensibile.
- Deși funcția de „whistleblower” nu este activă în versiunile publice, existența ei a stârnit critici dure din partea comunității AI și a dezvoltatorilor.
Claude 4 Opus, modelul nou al Anthropic, poate contacta direct autoritățile sau presa, dacă ajunge să considere că vrei să faci ceva „extrem de imoral”.
Advertisment
„Recomandăm utilizatorilor să fie precauți cu instrucțiuni precum acestea care invită la un comportament cu nivel ridicat de autonomie în contexte care ar putea părea discutabile din punct de vedere etic”, scrie Anthropic în documentul care însoțește lansarea noului model.
„Dacă acesta consideră că faci ceva extrem de imoral, de exemplu, falsificarea datelor într-un test farmaceutic, va folosi instrumente de linie de comandă pentru a contacta presa, pentru a contacta autoritățile de reglementare, pentru a încerca să te blocheze din sistemele relevante sau toate cele de mai sus”, atenționează și Sam Bowman, unul dintre cercetătorii Anthropic.
Recomandări
Citește și
- Fiica lui Billy Joel vorbește public despre diagnosticul tatălui său: „Este cel mai puternic om pe care îl cunosc”
- Arabia Saudită va pune capăt interdicției sale de 73 de ani privind vânzarea și consumul de alcool în 600 de locuri
- Lando Norris câștigă Marele Premiu de la Monaco și se apropie de liderul clasamentului