L'infrastruttura di Open AI sembra pulita fino a quando non si rompe in pubblico. Mira e Cion lo hanno imparato a proprie spese, in un giorno in cui l'assistente non è andato giù: continuava a rispondere, con sicurezza, ma abbastanza sbagliato da far notare ai clienti. Il post-mortem non era un dramma morale sulle “allucinazioni”. Era un inventario di ricevute mancanti.

Hanno cambiato prima le parti noiose. Ogni richiesta ora porta un ID durevole dal gateway attraverso il recupero, l'inferenza e la redazione, quindi un output errato può essere tracciato senza ricostruire la giornata dalle schermate di Slack. I prompt hanno smesso di vivere come testo modificabile in un cruscotto. Sono diventati artefatti versionati con proprietari, revisioni e rollback. Lo stesso è accaduto alle regole di sicurezza e alle tabelle di instradamento, perché l'instradamento è comportamento, e il comportamento è ciò che i clienti sperimentano.

Hanno anche stretto le cuciture attorno ai dati. Gli snapshot di addestramento sono fissati. I corpora di recupero sono hashati prima delle ricostruzioni dell'indice. Se un modello di un fornitore si aggiorna dietro un'API, viene trattato come un rilascio, non come un miglioramento invisibile. Quando una chiave viene ruotata o viene concessa un'eccezione di accesso, lascia una traccia e scade a meno che qualcuno non la rinnovi deliberatamente.

Nessuna di queste cose è elegante. Aggiunge attrito. Aggiunge costi di archiviazione. Rallenta i "fix rapidi" che prima venivano spediti in un'ora. Ma ha cambiato la texture del fallimento. Quando qualcosa va storto ora, il team non discute su cosa potrebbe essere successo. Estraggono una traccia, leggono la cronologia e riparano il sistema che esiste realmente. Questo è ciò che è un'infrastruttura da adulti: non meno errori, ma meno misteri.@Mira - Trust Layer of AI #MIRA #mira $MIRA