Quando le persone parlano di crescita dell'intelligenza, di solito si concentrano sui modelli. La discussione riguarda la creazione di questi modelli più grandi e migliori. Ogni nuovo modello fa di più rispetto a quello precedente. Sembra una storia, man mano che i modelli migliorano, diventeranno la parte importante nella creazione di valore.
Questo ha senso a un certo livello. I modelli sono ciò che vediamo e con cui interagiamo. Creano immagini testuali e codice. Aiutano le persone a utilizzare le cose. Quando qualcosa è visibile e interattivo, le persone prestano attenzione. Le persone vogliono investire in esso.
Se hai trascorso molto tempo a studiare i sistemi, sai che questa non è l'intera storia. Come funziona un sistema in un test controllato non è lo stesso di come funziona nel mondo. Quando il software passa da un contesto di ricerca a essere utilizzato ogni giorno, le grandi sfide cambiano. Assicurarsi che il sistema sia affidabile, funzioni correttamente e possa essere fidato diventa più importante che renderlo potente.
I sistemi di intelligenza artificiale stanno iniziando ad affrontare queste sfide. I grandi modelli sono potenti. Non sono perfetti. Commettono errori. Per alcuni compiti, come scrivere testi o generare idee, va bene se commettono alcuni errori. Tuttavia, quando questi modelli vengono utilizzati in settori come la finanza, l'infrastruttura o la robotica, gli errori possono essere un grosso problema.
In queste aree il problema principale non è solo creare cose, ma assicurarsi che siano corrette. È qui che molte persone non capiscono la realtà dell'ingegneria. Man mano che vengono utilizzati più modelli, il sistema diventa più complesso. I modelli interagiscono con cose come database e strumenti. Ogni interazione può causare problemi. Il sistema non è un modello unico, è una rete di parti che possono commettere errori.
Le persone che hanno lavorato su sistemi conoscono questo problema. Man mano che più parti interagiscono, diventa molto più difficile assicurarsi che tutto funzioni insieme correttamente. Diventa più difficile trovare e risolvere i problemi. Assicurarsi che il sistema funzioni correttamente diventa essenziale. I sistemi di intelligenza artificiale non fanno eccezione.
Nel software questo viene fatto con test, validazione e monitoraggio. Queste cose non creano funzionalità, assicurano solo che il sistema funzioni correttamente. Nel tempo queste diventano alcune delle parti del sistema. Questo è già accaduto nella storia dell'informatica. Le prime reti si concentravano solo sul collegare le cose. Successivamente hanno aggiunto funzionalità di sicurezza e affidabilità. Questo è successo perché i sistemi che funzionano in teoria non funzionano sempre in pratica.
L'intelligenza artificiale sta attraversando un cambiamento. Non è un'aggiunta, è una nuova parte del sistema. I sistemi progettati per la verifica sono diversi dai sistemi progettati solo per creare cose. Sono più complessi, richiedono pianificazione e devono essere in grado di controllare l'output dei modelli e assicurarsi che sia corretto. Questo richiede progettazione per garantire che funzioni correttamente. I sistemi di intelligenza artificiale devono essere progettati tenendo presente la verifica.
Man mano che il numero di modelli cresce, la verifica diventa più importante. Se abbiamo dieci modelli possiamo controllare manualmente il loro output. Se abbiamo diecimila modelli, abbiamo bisogno di verifica automatizzata. Il valore della verifica cresce man mano che aumenta il numero di modelli. Questo è simile a ciò che accade in ambiti tecnologici. Non pensiamo sempre all'infrastruttura che supporta un sistema fino a quando non diventa troppo complessa per funzionare senza di essa.
Le decisioni che prendiamo possono avere conseguenze a lungo termine. Se progettiamo un sistema senza verifica, può essere difficile aggiungerla. I sistemi progettati con la verifica in mente fanno scelte. Possono includere funzionalità che rendono più facile controllare l'output dei modelli. Queste funzionalità possono rendere il sistema più complesso. Rendono anche il sistema più affidabile. I sistemi di intelligenza artificiale devono essere affidabili.
Ciò che è interessante riguardo alle reti di verifica è che cercano di rendere la verifica una parte condivisa del sistema piuttosto che qualcosa che viene fatto separatamente per ogni modello. Questo approccio ha le sue sfide. La rete di verifica deve essere affidabile e trasparente. Il valore della verifica deriva dal fornire fiducia nel sistema. Mantenere quella fiducia richiede governance e monitoraggio.
Questo non è insolito nella progettazione dell'infrastruttura. Molti sistemi affrontano sfide. Il pubblico spesso si concentra sulle innovazioni nell'intelligenza, come modelli più veloci e agenti più capaci. Tuttavia, i sistemi che durano sono quelli che risolvono problemi reali, non problemi dimostrativi. L'intelligenza artificiale è ancora all'inizio di questa transizione. Molti dispiegamenti sono sperimentali. L'architettura è ancora in evoluzione.
La direzione è chiara: man mano che i modelli proliferano, avremo bisogno di meccanismi per valutare il loro output in un certo modo. L'infrastruttura di verifica è una risposta a questa necessità. Se diventerà parte dell'ecosistema dell'intelligenza dipenderà dalle sue prestazioni operative. I sistemi infrastrutturali hanno successo perché funzionano in modo affidabile, non perché sono teoricamente eleganti.
La domanda importante non è quanto velocemente possiamo costruire questi sistemi. Come possiamo assicurarci che l'output di migliaia o milioni di modelli di intelligenza artificiale possa essere fidato. Questa è la chiave per far funzionare i sistemi di intelligenza artificiale nel mondo.
\u003cm-42/\u003e
\u003ct-33/\u003e
