Pamiętam pierwszy raz, kiedy zobaczyłem projekt taki jak @Mira - Trust Layer of AI , natychmiast go odrzuciłem. "Warstwa weryfikacyjna dla AI" brzmiała jak kolejna próba owijania chaotycznego problemu w bardziej zrozumiały język. Ale im więcej myślałem o tym, gdzie AI faktycznie zawodzi, tym mniej abstrakcyjne się to wydawało. Prawdziwym problemem nie jest to, że modele popełniają błędy. Każdy system to robi. Problem polega na tym, że ludzie wciąż próbują używać narzędzi probabilistycznych w środowiskach, które wymagają odpowiedzialności, śledzenia i jakiejś drogi do rozwiązywania sporów.
W ten sposób większość rozwiązań dotyczących bezpieczeństwa AI wydaje się niekompletna. Dostosowywanie pomaga, dopóki warunki się nie zmienią. Barierki działają, dopóki użytkownicy nie naciskają na krawędziach. Ludzka recenzja brzmi odpowiedzialnie, ale jest kosztowna, wolna i często staje się jedynie ćwiczeniem do odznaczania. W praktyce instytucje nie chcą tylko lepszych odpowiedzi. Chcą czegoś, na czym mogą polegać, gdy pieniądze się poruszają, roszczenia są kwestionowane, audyty się odbywają lub odpowiedzialność spada gdzieś w rzeczywistości.
Patrząc na to w ten sposób, #Mira jest bardziej interesujące jako infrastruktura niż jako produkt AI. Próbuje uczynić wyniki modeli zrozumiałymi dla systemów, które dbają o dowody, ugody, zgodność i zachęty. To jest trudniejszy i bardziej użyteczny problem.
Widzę, dlaczego budowniczowie, instytucje i być może regulatorzy by się tym interesowali. Ale to działa tylko wtedy, gdy weryfikacja jest tańsza niż porażka i prostsza niż nadzór oparty na zaufaniu. W przeciwnym razie staje się kolejną elegancką warstwą, z której nikt nie korzysta, gdy pojawia się presja ze strony rzeczywistego świata.
— Satoshi Nakameto