Zawsze jestem zdumiony, jak szybko sztuczna inteligencja staje się częścią naszego codziennego życia. Może pisać opowiadania, wyjaśniać skomplikowane tematy i pomagać ludziom rozwiązywać problemy w zaledwie sekundy. Ale mimo że to imponujące, jest coś, co wielu z nas zaczyna zauważać po pewnym czasie korzystania z AI. Czasami daje odpowiedzi, które brzmią bardzo pewnie, ale nie są całkowicie poprawne. Gdy AI zaczyna wpływać na badania, edukację, decyzje biznesowe lub informacje, na których polegają ludzie, ten mały problem może stać się znacznie większym.
To jest przestrzeń, w której Mira Network stara się wprowadzić zmiany. Budują zdecentralizowany system zaprojektowany do sprawdzania informacji tworzonych przez AI, zanim ludzie w pełni mu zaufają. Gdy AI generuje odpowiedź, system dzieli ją na mniejsze fragmenty informacji zwane roszczeniami. Te roszczenia są następnie udostępniane w sieci, gdzie różne modele AI je przeglądają i decydują, czy wydają się dokładne.
Widzę to prawie jak grupową rozmowę, w której wiele perspektyw bada ten sam pomysł. Jeśli większość walidatorów się zgadza, informacja staje się bardziej wiarygodna. Jeśli nie, system może oznaczyć ją jako niepewną. Nie budują po prostu kolejnego projektu AI. Starają się sprawić, aby przyszłość sztucznej inteligencji była bardziej niezawodna dla wszystkich.