Używałem jednego z tych popularnych asystentów AI, aby pomóc mi w badaniu potencjalnej inwestycji w protokół DeFi. Odpowiedział mi pewną, szczegółową i całkowicie fałszywą odpowiedzią, która sfabrykowała wyniki audytów, które nie istniały, i cytowała incydenty bezpieczeństwa, które nigdy się nie wydarzyły. Gdybym wykorzystał te informacje do podjęcia decyzji, kosztowałoby mnie to prawdziwe pieniądze.
To był moment, w którym postanowiłem zgłębić powód tego zjawiska, i wtedy natknąłem się na @Mira - Trust Layer of AI
To, co mnie zafascynowało, to nie obietnica nowego, ulepszonego modelu AI, który jest szybszy i lepszy niż inne. Jest ich tuż kilkanaście w obiegu. To była obietnica rozwiązania jednego problemu, który nie daje mi spać w nocy: Jak mogę zaufać temu, co mówi mi AI, szczególnie gdy w grę wchodzą pieniądze?
Zacząłem myśleć o implikacjach tego w praktyce. Powiedzmy, że zamierzasz delegować agenta AI na małą część swojego portfela. Zanim dokona transakcji, to jest to, co dzieje się za kulisami dla $MIRA:
"Wymień 0.5 ETH na USDC teraz." Cóż, ta instrukcja jest rozłożona na mniejsze i mniejsze weryfikowalne kroki. Czy płynność jest odpowiednia? Czy umowa jest bezpieczna? Czy to dobry czas? Te pytania są rozproszone w różnych modelach AI działających na węzłach, gdzie ludzie postawili swoje $MIRA jako zabezpieczenie.
Ale co jeśli powiedziałbym ci, że to jest miejsce, gdzie wszystko się zbiega? Te węzły mają osobisty interes w tym procesie. Jeśli się pomylą, tracą swoje stawki. To już nie chodzi o to, aby mieć rację; chodzi o to, co się stanie, jeśli się pomylisz.
Ale to, co mnie przekonało, to to: ślad audytu. Każda decyzja jest włączona w dowód kryptograficzny, który możesz śledzić. Koniec z czarną skrzynką. Koniec z "AI powiedział to."
Nie zamierzam udawać, że $MIRA nie był ostatnio trochę niestabilny. Cały rynek był trochę nierówny, szczerze mówiąc, a harmonogramy odblokowania wystraszyły wielu ludzi. Ale jeśli się cofnę, widzę zupełnie inny obraz – protokół, który stawia na przyszłość, w której wartość jest zarządzana przez AI, i w której niekoniecznie ufamy, ale weryfikujemy.
Z mojego punktu widzenia, będziemy coraz częściej współpracować z agentami AI w miarę upływu czasu. Pytanie nie brzmi, czy jesteśmy wystarczająco mądrzy – chodzi o to, czy możemy im ufać, gdy to się liczy.