#mira
Mira stabilizuje to, co modele mają zweryfikować
Kusi, by sądzić, że weryfikacja AI poprawia się tylko dzięki używaniu silniejszych lub bardziej weryfikujących modeli. Ale im więcej studiuję, jak są zbudowane wyniki AI, tym bardziej widzę, że niestabilność nie tkwi w modelach, lecz w danych wejściowych, które otrzymują.
Tekst AI często łączy wiele twierdzeń, pozostawia założenia domyślne i utrzymuje elastyczny zakres. Tak więc każdy weryfikator kończy się nieco inaczej rekonstruując zadanie.
To jest warstwa, którą Mira naprawia jako pierwszą.
Zanim jakikolwiek model oceni cokolwiek, Mira dekomponuje wynik na atomowe twierdzenia i dostosowuje kontekst, tak aby zadanie stało się identyczne w różnych weryfikatorach. Teraz modele nie interpretują tekstu, który oceniają, lecz oceniają tę samą zdefiniowaną wypowiedź.
To jest to, co wyróżnia Mira:
nie zaczyna od wzmacniania weryfikatorów.
Stabilizuje to, co muszą zweryfikować.
A ta zmiana sprawia, że weryfikacja wielomodelowa jest naprawdę wiarygodna.
@Mira - Trust Layer of AI $MIRA
{spot}(MIRAUSDT)