Quando le macchine devono dimostrare se stesse: ricostruire la fiducia nell'era dell'intelligenza artificiale
L'intelligenza artificiale ha raggiunto un momento mozzafiato e inquietante nella sua storia. Può redigere argomentazioni legali, suggerire trattamenti medici, costruire software e spiegare le origini dell'universo in pochi secondi. Sembra sicura. Sembra certa. Sembra quasi umana. Eppure, sotto quella fluenza, qualcosa di fragile rimane.
L'IA può essere brillante e sbagliata allo stesso tempo.
Può inventare una statistica che non è mai esistita. Può citare un articolo di ricerca che non è mai stato scritto. Può raccomandare qualcosa di dannoso con un tono così calmo e sicuro che pochi lo metterebbero in discussione. Il pericolo non è che l'IA commetta errori. Gli esseri umani lo fanno costantemente. Il pericolo è che l'IA commetta errori senza esitazione.