Trong vài năm qua, AI đã bùng nổ mọi nơi. ChatGPT, các công cụ tạo hình ảnh, công cụ lập trình AI, trợ lý nghiên cứu. Cảm giác như mỗi tuần có một mô hình mới có thể làm điều gì đó ấn tượng. Nhưng nếu bạn thực sự dành thời gian sử dụng những công cụ này, bạn sẽ bắt đầu nhận thấy một vấn đề cứ lặp đi lặp lại.

AI có thể nghe rất tự tin ngay cả khi nó hoàn toàn sai.

Đây là điều mà mọi người gọi là ảo giác. Mô hình viết ra điều gì đó trông có vẻ đúng nhưng sự thật thì không thực. Nó có thể bịa ra nguồn, trộn lẫn thông tin, hoặc đưa ra những câu trả lời đơn giản không tồn tại trong thế giới thực. Đối với việc sử dụng thông thường thì không phải là một vấn đề lớn. Nhưng nếu AI được sử dụng trong tài chính, y tế, luật pháp, hoặc nghiên cứu, những sai lầm như vậy trở nên nguy hiểm.

Đó chính xác là khoảng trống mà Mạng lưới Mira đang cố gắng giải quyết.

Khi tôi lần đầu tiên biết đến Mira, điều thu hút sự chú ý của tôi là ý tưởng rằng AI không chỉ nên tạo ra câu trả lời. Những câu trả lời đó cũng nên được xác minh. Nói cách khác, đầu ra của AI nên được coi là thứ cần có bằng chứng trước khi người ta tin tưởng.

Đó là toàn bộ khái niệm đằng sau Mira.

Ý tưởng đằng sau Mira

Hãy nghĩ về cách mà các blockchain hoạt động. Khi ai đó gửi Bitcoin, mạng xác minh giao dịch. Nhiều nút kiểm tra và xác nhận rằng việc chuyển tiền là hợp lệ. Chỉ sau khi đạt được sự đồng thuận, giao dịch mới trở thành một phần của sổ cái.

Mira đang cố gắng áp dụng một khái niệm tương tự vào trí tuệ nhân tạo.

Thay vì tin tưởng vào một mô hình AI duy nhất, Mira tạo ra một mạng lưới xác minh những gì mô hình nói. Khi một hệ thống AI tạo ra một phản hồi, mạng lưới sẽ chia nhỏ phản hồi đó thành các tuyên bố nhỏ hơn và kiểm tra xem những tuyên bố đó có thực sự đúng không.

Các nút khác nhau trong mạng xem xét các tuyên bố và đạt được sự đồng thuận về việc liệu câu trả lời có thể tin cậy được hay không.

Vì vậy, thay vì nhận được một đầu ra AI thô, bạn nhận được điều gì đó đã được xác minh bởi một hệ thống phi tập trung.

Chỉ ý tưởng đó thôi đã mạnh mẽ nếu bạn nghĩ về nơi AI đang hướng tới.

Tại sao điều này thực sự quan trọng

Hiện tại, hầu hết các công cụ AI rất tuyệt vời cho việc brainstorming, viết nháp, hoặc khám phá ý tưởng. Nhưng chúng vẫn có rủi ro cho bất cứ điều gì yêu cầu độ chính xác.

Hãy tưởng tượng một AI y tế đưa ra các gợi ý chẩn đoán sai. Hoặc một AI tài chính tạo ra phân tích sai về thị trường. Hoặc một AI pháp lý trích dẫn các trường hợp chưa từng tồn tại.

Đây là những vấn đề thực sự mà các nhà nghiên cứu và công ty đang phải đối mặt.

Nếu AI sẽ chuyển từ việc là một công cụ tuyệt vời thành hạ tầng cho các ngành công nghiệp thực sự, vấn đề độ tin cậy cần phải được giải quyết.

Mira về cơ bản đang nói rằng xác minh nên trở thành một phần của quy trình AI.

Không phải sau khi sự việc xảy ra. Không phải thứ mà người dùng kiểm tra thủ công. Nó nên được xây dựng trực tiếp vào hệ thống.

Cách công nghệ hoạt động

Phần thú vị về Mira là cách nó xử lý việc xác minh.

Khi một AI tạo ra một câu trả lời, Mira không coi đó là một khối văn bản lớn. Thay vào đó, nó chia nhỏ đầu ra thành các tuyên bố sự thật nhỏ hơn.

Mỗi tuyên bố sau đó được phân phối trên một mạng lưới các nút độc lập.

Các nút này phân tích các tuyên bố và cố gắng xác minh xem chúng có đúng hay không. Một số nút có thể chạy các mô hình AI khác nhau, những nút khác có thể sử dụng các thuật toán xác minh hoặc nguồn dữ liệu bên ngoài.

Sau đó, hệ thống thu thập các phản hồi và xác định xem tuyên bố có hợp lệ hay không.

Khi được xác minh, kết quả có thể được ghi lại trên chuỗi để trở nên minh bạch và chống giả mạo.

Điều làm cho cách tiếp cận này thú vị là nó không dựa vào một mô hình duy nhất là hoàn hảo. Thay vào đó, nó sử dụng xác minh tập thể để cải thiện độ chính xác.

Nghiên cứu sớm xung quanh hệ thống cho thấy rằng việc xác minh có thể giảm đáng kể các lỗi trong các nhiệm vụ lập luận. Nó không phải là phép thuật, nhưng đó là một bước lớn hướng tới việc làm cho đầu ra của AI đáng tin cậy hơn.

Hệ sinh thái xung quanh Mira

Mira không chỉ xây dựng một giao thức. Đội ngũ cũng đang xây dựng các công cụ và ứng dụng xung quanh nó.

Một ví dụ là một nền tảng gọi là Klok. Nó về cơ bản là một hệ thống trò chuyện đa mô hình nơi người dùng có thể tương tác với các mô hình AI khác nhau trong khi Mira xác minh các phản hồi ở phía sau.

Thay vì mù quáng tin tưởng vào bất cứ điều gì mô hình nói, hệ thống thêm một lớp kiểm tra độ chính xác.

Đối với các nhà phát triển, dự án cũng đang làm việc trên các API và SDK cho phép các ứng dụng kết nối vào mạng lưới xác minh.

Vậy nếu ai đó xây dựng một ứng dụng sử dụng AI, họ có thể định hướng đầu ra qua Mira và nhận được các phản hồi đã được xác minh trước đó.

Loại hạ tầng như vậy có thể trở nên rất hữu ích khi nhiều ứng dụng bắt đầu phụ thuộc nhiều vào AI.

Vai trò của mã thông báo MIRA

Giống như hầu hết các mạng phi tập trung, Mira có mã thông báo riêng của nó để cung cấp sức mạnh cho hệ sinh thái.

Mã thông báo được sử dụng cho một số thứ bên trong mạng lưới.

Các nhà phát triển và ứng dụng muốn xác minh đầu ra của AI phải trả phí bằng mã thông báo. Các nhà xác minh điều hành các nút và thực hiện các nhiệm vụ xác minh sẽ nhận được phần thưởng.

Cũng có việc đặt cược liên quan. Người tham gia có thể đặt cược mã thông báo để giúp bảo mật mạng lưới và tham gia vào các quyết định quản trị.

Vì vậy, mã thông báo hoạt động như động cơ kinh tế giữ cho mạng lưới xác minh hoạt động.

Nếu không có các động lực, sẽ khó duy trì một hệ thống phi tập trung nơi các nút liên tục kiểm tra đầu ra của AI.

Đội ngũ đứng sau dự án

Đội ngũ sáng lập phía sau Mira có nền tảng trong các hệ thống AI quy mô lớn.

Dự án được bắt đầu bởi các kỹ sư đã làm việc tại các công ty như Uber và Amazon, nơi hạ tầng học máy đóng một vai trò lớn.

Từ những gì tôi đã thấy, sự tập trung của đội ngũ luôn là giải quyết một vấn đề kỹ thuật thực sự thay vì chỉ xây dựng một mã thông báo AI khác.

Họ đã nhận ra sớm rằng độ tin cậy là một trong những rào cản lớn nhất cho việc áp dụng AI.

Ngay cả những mô hình tiên tiến nhất cũng không thể được tin cậy trong các môi trường quan trọng nếu đầu ra của chúng không thể được xác minh.

Nhận thức đó là điều đã thúc đẩy họ khám phá xác minh phi tập trung như một giải pháp.

Sự chấp nhận và phát triển cho đến nay

Mira đã đạt được một số cột mốc quan trọng kể từ khi ra mắt.

Dự án đã chuyển từ nghiên cứu và phát triển sang một môi trường mạng trực tiếp với việc ra mắt mainnet. Bước đó cho phép các nhà phát triển và người dùng bắt đầu tương tác với hệ thống xác minh trực tiếp.

Các ứng dụng hệ sinh thái sớm được báo cáo đã xử lý hàng triệu truy vấn AI thông qua mạng lưới.

Số lượng đó có thể sẽ tăng lên nếu nhiều nhà phát triển bắt đầu tích hợp hạ tầng của Mira vào các ứng dụng của riêng họ.

Hiện tại, câu chuyện AI trong crypto đang trở thành một trong những lĩnh vực lớn nhất trên thị trường. Nhiều dự án đang thử nghiệm với các đại lý AI, các mô hình phi tập trung và mạng lưới dữ liệu.

Mira nằm trong một danh mục hơi khác.

Nó không cố gắng cạnh tranh với các mô hình AI. Nó đang cố gắng xác minh chúng.

Điều này có thể đi đến đâu trong tương lai

Câu hỏi thực sự cho Mira là đơn giản.

Liệu thế giới có yêu cầu AI có thể xác minh được không?

Nếu AI tiếp tục trở nên mạnh mẽ hơn và được tích hợp vào các hệ thống hàng ngày, lòng tin sẽ trở thành một vấn đề lớn. Các chính phủ, công ty và tổ chức sẽ không muốn dựa vào các mô hình không thể chứng minh độ chính xác của đầu ra của chúng.

Đó là nơi mà một thứ như Mira có thể trở nên cực kỳ giá trị.

Thay vì tin tưởng vào một công ty hoặc một mô hình, người dùng có thể dựa vào các mạng lưới xác minh phi tập trung xác nhận xem đầu ra của AI có hợp lệ hay không.

Nó giống như cách mà các blockchain loại bỏ sự cần thiết phải tin tưởng vào một tổ chức tài chính duy nhất.

Về lâu dài, Mira về cơ bản đang cố gắng xây dựng lớp tin cậy cho trí tuệ nhân tạo.

Và nếu AI thực sự trở thành xương sống của công nghệ tương lai, một lớp tin cậy có thể trở nên quan trọng không kém gì các mô hình tự thân.

@Mira - Trust Layer of AI #Mira $MIRA

MIRA
MIRA
0.0807
-1.34%