Biegałem mały eksperyment kilka dni temu. Nic poważnego. Po prostu zadałem to samo pytanie kilku różnym systemom AI.
Dziwna część nie dotyczyła odpowiedzi. Fakty były w większości takie same.
Ale wnioski… nieco się zmieniły.
Jedna brzmiała bardzo pewnie. Inna się wahała. Trzecia całkowicie zmieniła akcent, mimo że dane wyglądały podobnie. Ta mała niekonsekwencja utkwiła mi w pamięci.
Pewność bez odpowiedzialności. To jest tarcie.
Sprawiło, że zacząłem drążyć temat @Mira - Trust Layer of AI i pomysł, który za tym stoi.
Problem z większością AI dzisiaj nie dotyczy inteligencji. Modele są już dobre w generowaniu tekstu, podsumowań badań, a nawet analiz. Prawdziwym problemem jest niezawodność. Czasami halucynują. Czasami pojawia się stronniczość. A sam system rzadko wyjaśnia, jak pewna jest odpowiedź.
Mira próbuje podejść do tego inaczej.
Zamiast polegać na pojedynczym wyniku modelu, sieć dzieli informacje na mniejsze kawałki. Twierdzenia. Każde twierdzenie przechodzi przez zdecentralizowaną grupę weryfikatorów AI. Niezależne systemy sprawdzają to samo stwierdzenie z różnych perspektyw.
Dopiero po osiągnięciu wystarczającej zgody wynik staje się czymś bliższym zweryfikowanej informacji.
Ta część mnie interesuje. Ponieważ proces wydaje się mniej przypominać chatbota odpowiadającego na pytanie, a bardziej recenzję rówieśniczą odbywającą się z prędkością maszyny.
Blockchain również odgrywa tutaj rolę. Proces weryfikacji jest zapisywany na łańcuchu. To oznacza, że wynik to nie tylko odpowiedź, ale także ślad, jak ta odpowiedź została oceniona.
Więc fokus się zmienia.
Z AI generującym informacje…
do AI je udowadniającym.
Jeszcze nie wiem, czy systemy takie jak $MIRA staną się standardową warstwą dla AI. To wciąż na wczesnym etapie, a sieci takie jak ta mają przed sobą wyzwania techniczne.
Ale kierunek ma dla mnie sens.
Mniej szumu wokół mądrzejszych modeli.
Więcej wysiłku w kierunku systemów, które mogą faktycznie pokazać swoją pracę.