Informe de investigación de AI Layer1: buscando la tierra fértil para DeAI en la cadena
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en algunos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Con un fuerte capital y control sobre los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir con ellas.
Al mismo tiempo, en la etapa inicial de rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a problemas fundamentales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA "debe ser buena" o "debe ser mala" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los segmentos clave e infraestructuras aún dependen de servicios en la nube centralizados, con una fuerte carga de meme, lo que dificulta el sostenimiento de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain todavía muestra limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de la IA descentralizada, hacer que la cadena de bloques pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una cadena de bloques Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1, como una blockchain diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centra estrechamente en las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo sostenible y la prosperidad del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe tener las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y consenso descentralizado. El núcleo de AI Layer 1 radica en construir una red compartida de recursos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en el registro de libros, los nodos de AI Layer 1 deben asumir tareas más complejas; no solo deben proporcionar potencia de cálculo y completar el entrenamiento e inferencia de modelos de IA, sino que también deben contribuir con recursos diversificados como almacenamiento, datos y ancho de banda, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y el mecanismo de incentivos subyacente: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo de esta manera se podrá garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, presentan altos requisitos de rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe optimizar profundamente su arquitectura subyacente para cumplir con las demandas de alto rendimiento, baja latencia y paralelismo flexible, y predefinir la capacidad de soporte nativa para recursos de computación heterogénea, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas simples" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de resultados confiables La capa de IA Layer 1 no solo debe prevenir la mala conducta del modelo y la manipulación de datos, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de IA. Al integrar tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y cálculos seguros multipartitos (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender claramente la lógica y las bases de la salida de IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA suelen involucrar datos sensibles de los usuarios, siendo especialmente clave la protección de la privacidad de los datos en áreas como finanzas, salud y redes sociales. AI Layer 1 debe garantizar la verificabilidad mientras utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación de privacidad y gestión de permisos de datos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Capacidad de soporte y desarrollo de un ecosistema potente Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe poseer liderazgo técnico, sino que también debe proporcionar a desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas mencionadas, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado actual de desarrollo de los proyectos y explorando tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain AI Layer1 ( en una fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es abordar los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, impulsando así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicado a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas de renombre como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como un proyecto de segunda emprendeduría de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un aura desde su inicio, con abundantes recursos, conexiones y reconocimiento en el mercado, proporcionando un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otros inversores como Delphi, Hashkey y Spartan, entre otras decenas de reconocidas VC.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura Central
La arquitectura central de Sentient está compuesta por un pipeline de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
Curación de datos (Data Curation): Proceso de selección de datos impulsado por la comunidad, utilizado para la alineación del modelo.
Entrenamiento de Lealtad (Loyalty Training): Asegurar que el modelo mantenga un proceso de entrenamiento alineado con la intención de la comunidad.
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Capa de almacenamiento: almacena los pesos del modelo y la información de registro de huellas dactilares;
Capa de distribución: el contrato de autorización controla el punto de entrada a la llamada del modelo;
Capa de acceso: verificación de autorización del usuario mediante prueba de permisos;
Capa de incentivos: el contrato de enrutamiento de ingresos asignará el pago a los entrenadores, desplegadores y validadores en cada llamada.
Marco del modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar una clara protección de la propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Apertura: El modelo debe ser de código abierto, con un código y una estructura de datos transparentes, facilitando su reproducción, auditoría y mejora por parte de la comunidad.
Monetización: Cada llamada al modelo generará un flujo de ingresos, el contrato on-chain distribuirá los ingresos a los entrenadores, implementadores y verificadores.
Lealtad: El modelo pertenece a la comunidad de contribuyentes, la dirección de la actualización y la gobernanza son decididas por el DAO, y su uso y modificación están controlados por mecanismos criptográficos.
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Incrustación de huellas dactilares: insertar un conjunto de pares clave-valor de consulta-respuesta encubiertos durante el entrenamiento para formar una firma única del modelo;
Protocolo de verificación de propiedad: verificar si la huella dactilar se conserva a través de un detector de terceros (Prover) en forma de consulta.
Mecanismo de llamada autorizado: Antes de realizar la llamada, se debe obtener el "certificado de autorización" emitido por el propietario del modelo, y el sistema otorgará autorización al modelo para decodificar la entrada y devolver la respuesta correcta.
Este método permite realizar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución segura y certificación de modelos
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de derechos con huellas dactilares, ejecución TEE y distribución de beneficios de contratos on-chain. El método de huellas dactilares se implementa en OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, se asume el cumplimiento y se puede detectar y castigar en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar una firma única durante la fase de entrenamiento mediante la incorporación de pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia, evitando copias y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas en rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos actuales.
En el futuro, Sentient planea introducir tecnologías de pruebas de conocimiento cero (ZK) y cifrado completamente homomórfico (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad de los modelos de IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
3
Compartir
Comentar
0/400
MagicBean
· 07-13 19:52
¿Ya no pueden jugar los gigantes?
Ver originalesResponder0
BoredApeResistance
· 07-13 19:47
Otra nueva historia de web3 para tomar a la gente por tonta.
Ver originalesResponder0
FrogInTheWell
· 07-13 19:41
¿Cuándo los inversores minoristas podrán permitirse jugar con la IA?
El auge de AI Layer1: la nueva infraestructura del ecosistema de AI Descentralización
Informe de investigación de AI Layer1: buscando la tierra fértil para DeAI en la cadena
Resumen
En los últimos años, empresas tecnológicas líderes como OpenAI, Anthropic, Google y Meta han impulsado el rápido desarrollo de los modelos de lenguaje de gran tamaño (LLM). Los LLM han demostrado capacidades sin precedentes en diversas industrias, ampliando enormemente el espacio de imaginación humana e incluso mostrando potencial para sustituir el trabajo humano en algunos escenarios. Sin embargo, el núcleo de estas tecnologías está firmemente controlado por unos pocos gigantes tecnológicos centralizados. Con un fuerte capital y control sobre los costosos recursos de computación, estas empresas han establecido barreras difíciles de superar, lo que dificulta a la gran mayoría de los desarrolladores y equipos de innovación competir con ellas.
Al mismo tiempo, en la etapa inicial de rápida evolución de la IA, la opinión pública a menudo se centra en los avances y la conveniencia que trae la tecnología, mientras que la atención a problemas fundamentales como la protección de la privacidad, la transparencia y la seguridad es relativamente escasa. A largo plazo, estos problemas afectarán profundamente el desarrollo saludable de la industria de la IA y su aceptación social. Si no se resuelven adecuadamente, la controversia sobre si la IA "debe ser buena" o "debe ser mala" se volverá cada vez más prominente, y los gigantes centralizados, impulsados por su instinto de lucro, a menudo carecen de la motivación suficiente para enfrentar proactivamente estos desafíos.
La tecnología blockchain, gracias a sus características de descentralización, transparencia y resistencia a la censura, ofrece nuevas posibilidades para el desarrollo sostenible de la industria de la IA. Actualmente, han surgido numerosas aplicaciones de "Web3 AI" en las principales blockchains como Solana y Base. Sin embargo, un análisis más profundo revela que estos proyectos aún enfrentan numerosos problemas: por un lado, el grado de descentralización es limitado, y los segmentos clave e infraestructuras aún dependen de servicios en la nube centralizados, con una fuerte carga de meme, lo que dificulta el sostenimiento de un ecosistema verdaderamente abierto; por otro lado, en comparación con los productos de IA del mundo Web2, la IA on-chain todavía muestra limitaciones en términos de capacidad de modelo, utilización de datos y escenarios de aplicación, y la profundidad y amplitud de innovación necesitan ser mejoradas.
Para lograr verdaderamente la visión de la IA descentralizada, hacer que la cadena de bloques pueda soportar aplicaciones de IA a gran escala de manera segura, eficiente y democrática, y competir en rendimiento con soluciones centralizadas, necesitamos diseñar una cadena de bloques Layer1 hecha a medida para la IA. Esto proporcionará una base sólida para la innovación abierta de la IA, la gobernanza democrática y la seguridad de los datos, promoviendo el próspero desarrollo del ecosistema de IA descentralizada.
Las características clave de AI Layer 1
AI Layer 1, como una blockchain diseñada específicamente para aplicaciones de IA, tiene una arquitectura subyacente y un diseño de rendimiento que se centra estrechamente en las necesidades de las tareas de IA, con el objetivo de respaldar de manera eficiente el desarrollo sostenible y la prosperidad del ecosistema de IA en la cadena. En concreto, AI Layer 1 debe tener las siguientes capacidades centrales:
Mecanismos de incentivos eficientes y consenso descentralizado. El núcleo de AI Layer 1 radica en construir una red compartida de recursos como potencia de cálculo y almacenamiento. A diferencia de los nodos de blockchain tradicionales que se enfocan principalmente en el registro de libros, los nodos de AI Layer 1 deben asumir tareas más complejas; no solo deben proporcionar potencia de cálculo y completar el entrenamiento e inferencia de modelos de IA, sino que también deben contribuir con recursos diversificados como almacenamiento, datos y ancho de banda, rompiendo así el monopolio de los gigantes centralizados en la infraestructura de IA. Esto plantea mayores exigencias para el consenso y el mecanismo de incentivos subyacente: AI Layer 1 debe ser capaz de evaluar, incentivar y verificar con precisión la contribución real de los nodos en tareas de inferencia y entrenamiento de IA, logrando así la seguridad de la red y la eficiente distribución de recursos. Solo de esta manera se podrá garantizar la estabilidad y prosperidad de la red, y reducir efectivamente el costo total de la potencia de cálculo.
Excelente rendimiento y capacidad de soporte para tareas heterogéneas Las tareas de IA, especialmente el entrenamiento y la inferencia de LLM, presentan altos requisitos de rendimiento computacional y capacidad de procesamiento paralelo. Además, el ecosistema de IA on-chain a menudo necesita soportar una variedad de tipos de tareas heterogéneas, incluyendo diferentes estructuras de modelos, procesamiento de datos, inferencia, almacenamiento y otros escenarios diversos. AI Layer 1 debe optimizar profundamente su arquitectura subyacente para cumplir con las demandas de alto rendimiento, baja latencia y paralelismo flexible, y predefinir la capacidad de soporte nativa para recursos de computación heterogénea, asegurando que diversas tareas de IA puedan ejecutarse de manera eficiente, logrando una expansión fluida desde "tareas simples" hasta "ecosistemas complejos y diversos".
Verificabilidad y garantía de resultados confiables La capa de IA Layer 1 no solo debe prevenir la mala conducta del modelo y la manipulación de datos, sino que también debe garantizar desde el mecanismo subyacente la verificabilidad y alineación de los resultados de salida de IA. Al integrar tecnologías de vanguardia como entornos de ejecución confiables (TEE), pruebas de conocimiento cero (ZK) y cálculos seguros multipartitos (MPC), la plataforma puede permitir que cada inferencia de modelo, entrenamiento y proceso de manejo de datos sean verificables de manera independiente, asegurando la justicia y transparencia del sistema de IA. Al mismo tiempo, esta verificabilidad también puede ayudar a los usuarios a comprender claramente la lógica y las bases de la salida de IA, logrando "lo que se obtiene es lo que se desea", aumentando la confianza y satisfacción de los usuarios en los productos de IA.
Protección de la privacidad de los datos Las aplicaciones de IA suelen involucrar datos sensibles de los usuarios, siendo especialmente clave la protección de la privacidad de los datos en áreas como finanzas, salud y redes sociales. AI Layer 1 debe garantizar la verificabilidad mientras utiliza tecnologías de procesamiento de datos basadas en criptografía, protocolos de computación de privacidad y gestión de permisos de datos, para asegurar la seguridad de los datos en todo el proceso de inferencia, entrenamiento y almacenamiento, previniendo eficazmente la filtración y el abuso de datos, y eliminando las preocupaciones de los usuarios sobre la seguridad de los datos.
Capacidad de soporte y desarrollo de un ecosistema potente Como infraestructura de Layer 1 nativa de IA, la plataforma no solo debe poseer liderazgo técnico, sino que también debe proporcionar a desarrolladores, operadores de nodos, proveedores de servicios de IA y otros participantes del ecosistema herramientas de desarrollo completas, SDK integrados, soporte operativo y mecanismos de incentivos. Al optimizar continuamente la usabilidad de la plataforma y la experiencia del desarrollador, se promueve la implementación de aplicaciones nativas de IA ricas y diversas, logrando la prosperidad continua del ecosistema de IA descentralizado.
Con base en el contexto y las expectativas mencionadas, este artículo presentará en detalle seis proyectos representativos de AI Layer1, incluidos Sentient, Sahara AI, Ritual, Gensyn, Bittensor y 0G, sistematizando los últimos avances en el campo, analizando el estado actual de desarrollo de los proyectos y explorando tendencias futuras.
Sentient: Construyendo modelos de IA descentralizados de código abierto y leales
Resumen del proyecto
Sentient es una plataforma de protocolo de código abierto que está construyendo una blockchain AI Layer1 ( en una fase inicial como Layer 2, y luego se trasladará a Layer 1). Al combinar la AI Pipeline y la tecnología blockchain, se construye una economía de inteligencia artificial descentralizada. Su objetivo central es abordar los problemas de propiedad de modelos, seguimiento de llamadas y distribución de valor en el mercado LLM centralizado a través del marco "OML" (abierto, rentable, leal), permitiendo que los modelos de IA logren una estructura de propiedad en cadena, transparencia en las llamadas y distribución de valor. La visión de Sentient es permitir que cualquier persona pueda construir, colaborar, poseer y monetizar productos de IA, impulsando así un ecosistema de red de agentes de IA justo y abierto.
El equipo de Sentient Foundation reúne a los principales expertos académicos, emprendedores de blockchain e ingenieros de todo el mundo, dedicado a construir una plataforma de AGI impulsada por la comunidad, de código abierto y verificable. Los miembros clave incluyen al profesor Pramod Viswanath de la Universidad de Princeton y al profesor Himanshu Tyagi del Instituto Indio de Ciencia, responsables de la seguridad y privacidad de la IA, mientras que Sandeep Nailwal, cofundador de Polygon, lidera la estrategia y el ecosistema de blockchain. Los antecedentes de los miembros del equipo abarcan empresas de renombre como Meta, Coinbase, Polygon, así como universidades de élite como la Universidad de Princeton y el Instituto Indio de Tecnología, cubriendo áreas como AI/ML, NLP y visión por computadora, colaborando para impulsar la implementación del proyecto.
Como un proyecto de segunda emprendeduría de Sandeep Nailwal, cofundador de Polygon, Sentient llegó con un aura desde su inicio, con abundantes recursos, conexiones y reconocimiento en el mercado, proporcionando un fuerte respaldo para el desarrollo del proyecto. A mediados de 2024, Sentient completó una ronda de financiamiento semilla de 85 millones de dólares, liderada por Founders Fund, Pantera y Framework Ventures, con otros inversores como Delphi, Hashkey y Spartan, entre otras decenas de reconocidas VC.
diseño de arquitectura y capa de aplicación
Capa de infraestructura
Arquitectura Central
La arquitectura central de Sentient está compuesta por un pipeline de IA (AI Pipeline) y un sistema de blockchain.
El canal de IA es la base para el desarrollo y entrenamiento de artefactos de "IA leal", que incluye dos procesos centrales:
El sistema de blockchain proporciona transparencia y control descentralizado para los protocolos, asegurando la propiedad de los artefactos de IA, el seguimiento de su uso, la distribución de ingresos y la gobernanza justa. La arquitectura específica se divide en cuatro capas:
Marco del modelo OML
El marco OML (Abierto Open, Monetizable Monetizable, Leal Loyal) es el concepto central propuesto por Sentient, diseñado para proporcionar una clara protección de la propiedad y mecanismos de incentivos económicos para modelos de IA de código abierto. Al combinar tecnología on-chain y criptografía nativa de IA, tiene las siguientes características:
Criptografía nativa de IA (AI-native Cryptography)
La criptografía nativa de IA utiliza la continuidad de los modelos de IA, la estructura de variedades de baja dimensión y las características diferenciables de los modelos para desarrollar un mecanismo de seguridad ligero "verificable pero no removible". Su tecnología central es:
Este método permite realizar "llamadas de autorización basadas en el comportamiento + verificación de pertenencia" sin el costo de re-encriptación.
Marco de ejecución segura y certificación de modelos
Sentient actualmente utiliza Melange mezcla de seguridad: combinación de verificación de derechos con huellas dactilares, ejecución TEE y distribución de beneficios de contratos on-chain. El método de huellas dactilares se implementa en OML 1.0 como línea principal, enfatizando la idea de "seguridad optimista (Optimistic Security)", es decir, se asume el cumplimiento y se puede detectar y castigar en caso de incumplimiento.
El mecanismo de huellas dactilares es una implementación clave de OML, que permite al modelo generar una firma única durante la fase de entrenamiento mediante la incorporación de pares específicos de "pregunta-respuesta". A través de estas firmas, los propietarios del modelo pueden verificar la pertenencia, evitando copias y comercialización no autorizadas. Este mecanismo no solo protege los derechos de los desarrolladores del modelo, sino que también proporciona un registro on-chain rastreable del comportamiento de uso del modelo.
Además, Sentient ha lanzado el marco de computación Enclave TEE, que utiliza entornos de ejecución confiables (como AWS Nitro Enclaves) para garantizar que el modelo solo responda a solicitudes autorizadas, previniendo el acceso y uso no autorizados. Aunque TEE depende del hardware y presenta ciertos riesgos de seguridad, sus ventajas en rendimiento y tiempo real lo convierten en la tecnología central para el despliegue de modelos actuales.
En el futuro, Sentient planea introducir tecnologías de pruebas de conocimiento cero (ZK) y cifrado completamente homomórfico (FHE) para mejorar aún más la protección de la privacidad y la verificabilidad de los modelos de IA.