
El cofundador de Ethereum, Vitalik Buterin, quiere redefinir cómo los desarrolladores y usuarios deberían pensar sobre la seguridad de blockchain.
El prodigio canadiense ha argumentado que las fronteras tradicionales entre "seguridad" y "experiencia del usuario" (UX) son en gran medida una ilusión.
"El objetivo es minimizar la divergencia entre la intención del usuario y el comportamiento real del sistema," escribió Buterin en la red social X.
La ilusión de "seguridad perfecta"
Buterin señaló que lo que un usuario quiere lograr rara vez es tan simple como los botones que hace clic.
"[L]a seguridad perfecta es imposible," explicó Buterin. "No porque las máquinas sean 'defectuosas', o incluso porque los humanos que diseñan las máquinas sean 'defectuosos', sino porque 'la intención del usuario' es fundamentalmente un objeto extremadamente complejo al que el propio usuario no tiene fácil acceso."
tarjeta
Usó una transacción básica para ilustrar este dilema: quiero enviar 1 ETH a Bob. El usuario entiende quién es "Bob" en el mundo real (una "entidad de meatspace"), pero traducir "Bob" a una clave pública matemática o hash introduce vectores de amenaza masivos. Los objetivos abstractos como "preservar la privacidad" son aún más difíciles de definir.
Buterin argumentó que los desarrolladores deben confiar en redes de seguridad superpuestas.
"[T]ras la característica común de una buena solución es: el usuario está especificando su intención de múltiples maneras superpuestas, y el sistema solo actúa cuando estas especificaciones están alineadas entre sí," observó.
Buterin quiere que el principio de redundancia se estandarice en las billeteras de Ethereum y en las aplicaciones descentralizadas (dApps).
La IA como una "sombra" de la intención humana
Buterin cree que los modelos de lenguaje grandes (LLMs) podrían usarse para verificar lo que un usuario realmente quiere hacer.
"Los LLM bien hechos son en sí mismos una simulación de intención," escribió. "Un LLM genérico es (entre otras cosas) como una 'sombra' del concepto de sentido común humano. Un LLM ajustado por el usuario es como una 'sombra' de ese propio usuario, y puede identificar de una manera más detallada qué es normal versus inusual."
Sin embargo, también ha declarado que los LLM "no deben ser confiables en ninguna circunstancia como el único determinador de intención." En cambio, ofrecen una capa de verificación completamente diferente, mejorando así la redundancia.

