5 motivi per cui il MIT Sloan afferma che l'AI agentica potrebbe diventare pericolosa: 1. Agenti ribelli che prendono decisioni ad alto rischio 2. Esposizione massiccia alla cybersecurity man mano che gli agenti ottengono accesso ai sistemi 3. Nessuna chiara responsabilità quando i sistemi autonomi falliscono 4. Flussi di lavoro autonomi che operano con supervisione minima 5. Organizzazioni che dispiegano agenti prima che esista una governance Sono solo paranoici, giusto? 😅