banner
Centro de Noticias
negocio todo incluido

'Responsabilidad moral': ¿Puede blockchain realmente mejorar la confianza en la IA?

Dec 08, 2023

La mayoría de las revoluciones tecnológicas vienen con un lado más oscuro imprevisto. Cuando los físicos nacidos en Austria, Lise Meitner y Otto Frisch, dividieron el átomo por primera vez a fines de la década de 1930, probablemente no anticiparon que su descubrimiento conduciría unos años más tarde a la bomba atómica. Podría decirse que la revolución de la inteligencia artificial (IA) no es diferente.

Los algoritmos de IA existen desde hace décadas. La primera red neuronal artificial, el perceptrón, se inventó en 1958. Pero el ritmo reciente de desarrollo ha sido impresionante, y con dispositivos de reconocimiento de voz como Alexa y chatbots como ChatGPT, la IA parece haber ganado una nueva conciencia pública.

En el lado positivo, la IA podría elevar drásticamente el nivel de educación general del planeta y ayudar a encontrar curas para enfermedades devastadoras como el Alzheimer. Pero también podría desplazar puestos de trabajo y reforzar estados autoritarios que pueden usarlo para vigilar a sus poblaciones. Además, si las máquinas alguna vez logran inteligencia "general", incluso podrían ser entrenadas para anular elecciones y llevar a cabo guerras, advirtió recientemente el pionero de la IA Geoffrey Hinton.

"Enorme potencial y enorme peligro", así describió recientemente el presidente de los Estados Unidos, Joe Biden, a la IA. Esto siguió a una carta abierta en marzo de más de 1,000 líderes tecnológicos, incluidos Elon Musk y Steve Wozniak, que pedían una moratoria en los desarrollos de IA como ChatGPT. La tecnología, dijeron, presenta "riesgos profundos para la sociedad y la humanidad".

Cuando se trata de IA, debemos apoyar la innovación responsable y garantizar medidas de protección adecuadas para proteger los derechos y la seguridad de las personas. Nuestra Administración está comprometida con ese equilibrio, desde abordar el sesgo en los algoritmos hasta proteger la privacidad y combatir la desinformación.

Algunos países ya se están alineando contra OpenAI, el desarrollador de ChatGPT. Italia prohibió temporalmente ChatGPT en marzo y el comisionado de privacidad de Canadá está investigando a OpenAI por supuestamente recopilar y utilizar información personal sin consentimiento. La UE está negociando nuevas reglas para la IA, mientras que China exige que los desarrolladores de IA a partir de ahora cumplan con estrictas reglas de censura. Cierta cantidad de regulación parece inevitable.

Con esto como telón de fondo, surge una pregunta: ¿Puede la tecnología blockchain remediar los problemas que aquejan a la inteligencia artificial, o al menos algunos de ellos? La tecnología de contabilidad descentralizada, después de todo, es posiblemente todo lo que la IA no es: transparente, rastreable, confiable y libre de manipulaciones. Podría ayudar a compensar parte de la opacidad de las soluciones de caja negra de AI.

Anthony Day, jefe de estrategia y marketing de Midnight, una cadena lateral de Cardano, escribió en abril en LinkedIn con respecto a la tecnología blockchain: "Necesitamos crear una forma de permitir una CONFIANZA rastreable, transparente, sin censura y automatizada en dónde y lo que la IA hará por (o para) nuestro mundo".

Como mínimo, las cadenas de bloques podrían ser un depósito de datos de entrenamiento de IA. O como escribió Jerry Cuomo de IBM hace varios años, una observación que todavía suena cierta hoy:

"Con blockchain, puede rastrear la procedencia de los datos de entrenamiento, así como ver un registro de auditoría de la evidencia que condujo a la predicción de por qué una fruta en particular se considera una manzana frente a una naranja".

"Los usuarios de modelos de IA centralizados a menudo desconocen los sesgos inherentes a su capacitación", dice a Magazine Neha Singh, cofundadora de Tracxn Technologies, una plataforma de análisis e inteligencia de mercado. "Se puede hacer posible una mayor transparencia para los modelos de IA utilizando la tecnología blockchain".

Muchos están de acuerdo en que se debe hacer algo antes de que la IA se generalice más. "Para confiar en la inteligencia artificial, las personas deben saber y comprender exactamente qué es la IA, qué está haciendo y su impacto", dijo Kay Firth-Butterfield, jefa de inteligencia artificial y aprendizaje automático en el Foro Económico Mundial. "Los líderes y las empresas deben hacer de la IA transparente y confiable una prioridad al implementar esta tecnología".

Curiosamente, se están realizando algunos trabajos en este sentido. En febrero, la empresa fintech con sede en EE. UU. FICO recibió una patente para "Blockchain for Data and Model Governance", registrando oficialmente un proceso que ha estado utilizando durante años para garantizar prácticas de IA "responsables".

FICO utiliza un libro mayor basado en Ethereum para rastrear la procedencia de extremo a extremo "del desarrollo, la puesta en funcionamiento y el monitoreo de modelos de aprendizaje automático de manera inmutable", según la compañía, que cuenta con más de 300 científicos de datos y trabaja con muchos de los bancos más grandes del mundo. En particular, existen diferencias sutiles entre los términos "IA" y "aprendizaje automático", pero los términos a menudo se usan indistintamente.

El uso de una cadena de bloques permite la auditabilidad y promueve el modelo y la confianza corporativa, escribió Scott Zoldi, director de análisis de FICO, en una publicación de AI a principios de este año.

"Lo que es más importante, la cadena de bloques proporciona un seguimiento de la toma de decisiones. Muestra si una variable es aceptable, si introduce sesgos en el modelo o si la variable se utiliza correctamente... Registra todo el proceso de construcción de estos modelos, incluidos sus errores, correcciones y mejoras".

Las herramientas de IA deben entenderse bien, y deben ser justas, equitativas y transparentes para un futuro justo, dijo Zoldi, y agregó: "Y ahí es donde creo que la tecnología blockchain encontrará un matrimonio potencial con la IA".

El desarrollo de modelos es un área clave en la que blockchain puede marcar la diferencia, pero hay otras. Algunos anticipan que los dispositivos como ChatGPT podrían tener un efecto nocivo en las redes sociales y las plataformas de noticias, por ejemplo, dificultando distinguir el artificio de lo que es real o verdadero.

"Este es uno de los lugares donde blockchain puede ser más útil en las plataformas emergentes: para probar que la persona X dijo Y en una fecha/hora en particular", dijo Joshua Ellul, profesor asociado y director del Centro de Tecnologías de Libros Mayores Distribuidos de la Universidad de Malta, le dice a Magazine.

De hecho, una cadena de bloques puede ayudar a construir una especie de marco para la rendición de cuentas donde, por ejemplo, las personas y las organizaciones pueden emerger como fuentes confiables. Por ejemplo, Ellul continuó: "Si la persona X está registrada diciendo Y, y es innegable", entonces eso se convierte en un punto de referencia, por lo que "en el futuro, las personas podrían crear sus propias calificaciones de confianza para otras personas en función de lo que dijeron". en el pasado."

Criptoinnovadores de color restringidos por las reglas destinadas a protegerlos

Los estados canallas eluden las sanciones económicas, pero ¿las criptomonedas están equivocadas?

"Como mínimo, se podría usar una solución de cadena de bloques para rastrear datos, capacitación, pruebas, auditorías y eventos post-mortem de una manera que garantice que una parte no pueda cambiar algunos eventos que sucedieron", agrega Ellul.

Sin embargo, no todos están de acuerdo en que blockchain puede llegar a la raíz de lo que realmente aqueja a la IA. "Soy algo escéptico de que la cadena de bloques pueda considerarse un antídoto para la IA", dice a Magazine Roman Beck, profesor de la Universidad de TI de Copenhague y director del Centro Europeo de Cadenas de Bloques.

"Ya tenemos algunos desafíos hoy en día para rastrear y rastrear lo que realmente están haciendo los contratos inteligentes, y aunque blockchain debería ser transparente, algunas de las actividades son difíciles de auditar".

En otros lugares, la Comisión Europea ha estado buscando crear un "espacio transatlántico para una #IA confiable". Pero cuando se le preguntó si la tecnología blockchain podría ayudar a compensar la opacidad de la IA, un funcionario de la Comisión Europea dudó y le dijo a Magazine:

"Blockchain permite el seguimiento de las fuentes de datos y protege la privacidad de las personas pero, por sí solo, no aborda el problema de la caja negra en las redes neuronales de IA, el enfoque más común, también utilizado en ChatGPT, por ejemplo. No ayudará a los sistemas de IA a proporcionar explicaciones sobre cómo y por qué se tomó una decisión dada".

Tal vez blockchain no pueda "salvar" la IA, pero Beck aún prevé formas en que las dos tecnologías pueden reforzarse entre sí. "El área más probable en la que blockchain puede ayudar a la IA es el aspecto de la auditoría. Si queremos evitar que la IA se utilice para hacer trampa o participar en cualquier otra actividad ilegal, se podría solicitar un registro de los resultados de la IA en un libro mayor. Uno podría para usar IA, pero en caso de que los resultados se usen de manera maliciosa o ilegal, podría rastrear cuándo y quién ha usado IA, ya que se registraría".

O considere los vehículos de conducción autónoma desarrollados con tecnología de inteligencia artificial en los que "sensores, algoritmos y blockchain proporcionarían un sistema operativo autónomo para la comunicación y coordinación entre máquinas", agrega Beck. "Es posible que aún no podamos explicar cómo ha decidido la IA, pero podemos garantizar la responsabilidad y, por lo tanto, la gobernanza". Es decir, la cadena de bloques podría ayudar a rastrear quién o qué tuvo realmente la culpa cuando "un algoritmo se volvió loco".

Incluso el funcionario de la UE antes mencionado puede prever que blockchain brinde beneficios, incluso si no puede resolver el problema de la "caja negra" de AI. "Usando blockchain, podría ser posible crear un registro transparente y a prueba de manipulaciones de los datos utilizados para entrenar modelos de IA. Sin embargo, blockchain en sí mismo no aborda la detección y reducción de sesgos, lo cual es un desafío y aún es una investigación abierta". pregunta."

En el sector corporativo, muchas empresas todavía luchan por lograr una IA "confiable". FICO y Corinium encuestaron recientemente a unas 100 empresas de servicios financieros de América del Norte y descubrieron que "el 43 % de los encuestados dijeron que luchan con las estructuras de gobierno de IA responsable para cumplir con los requisitos reglamentarios". Al mismo tiempo, solo el 8% informó que sus estrategias de IA "están completamente maduras con estándares de desarrollo de modelos escalados constantemente".

Fundada en 1956 como Fair, Isaac and Company, FICO ha sido pionera en el uso de análisis predictivos y ciencia de datos para decisiones comerciales operativas. Construye modelos de IA que ayudan a las empresas a gestionar el riesgo, combatir el fraude y optimizar las operaciones.

Cuando se le preguntó cómo la empresa llegó a emplear una cadena de bloques de Ethereum autorizada en 2017 para su trabajo de análisis, Zoldi explicó que había estado teniendo conversaciones con bancos en ese momento. Aprendió que algo del orden del 70% al 80% de todos los modelos de IA que se estaban desarrollando nunca llegaron a la producción.

Miles de millones y miles de millones: cómo las marcas llevan Blockchain del nicho a la normalidad

Las reglas 'extrañas' de Tim Draper para invertir en el éxito

Un problema clave era que los científicos de datos, incluso dentro de la misma organización, estaban construyendo modelos de diferentes maneras. Muchos también estaban fallando en los controles de gobernanza después de que se completaron los modelos. Una prueba post hoc podría revelar que una herramienta impulsada por IA para la detección de fraude estaba discriminando inadvertidamente a ciertos grupos étnicos, por ejemplo.

"Tenía que haber una mejor manera", recuerda Zoldi que pensó, que hacer que "Sally" construyera un modelo y luego descubriera seis meses después, después de que ya dejó la empresa, que no registró la información correctamente "o no lo hizo". Seguir los protocolos de gobernanza apropiados para el banco".

FICO se dispuso a desarrollar un estándar de gobernanza de IA responsable que utilizaba una cadena de bloques para aplicarlo. Los desarrolladores debían ser informados con anticipación sobre los algoritmos que podrían usarse, los protocolos de prueba de ética que deben seguirse, los umbrales para modelos imparciales y otros procesos requeridos.

Mientras tanto, la cadena de bloques registra todo el viaje en el desarrollo de cada modelo, incluidos los errores, las correcciones y las innovaciones. “Entonces, por cada científico que desarrolla un modelo, otro verifica el trabajo y un tercero aprueba que todo se haya hecho correctamente. Tres científicos revisaron el trabajo y verificaron que cumplió con el estándar”, dice Zoldi.

¿Qué pasa con los problemas de escalamiento citados a menudo de blockchain? ¿Todo cabe en un solo libro de contabilidad digital? "No es un gran problema. Almacenaremos [en la cadena de bloques] un hash de, digamos, un activo de software, pero el activo de software en sí se almacenará en otro lugar, en algo más como un repositorio de git. No lo hacemos literalmente tengo que poner 10 megabytes de datos en la cadena de bloques".

Los desarrolladores comerciales harían bien en prestar atención a experiencias como la de FICO porque los líderes políticos claramente se están dando cuenta de los riesgos que presenta la IA. "El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad y la protección de sus productos", dijo la vicepresidenta de EE. UU., Kamala Harris, en un comunicado. "Y cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense".

Las preocupaciones también son globales. Como dijo el funcionario de la UE a Magazine: "Para garantizar que la IA sea beneficiosa para la sociedad, necesitamos un enfoque doble: primero, se necesita más investigación en el campo de la IA confiable para mejorar la tecnología en sí misma, haciéndola transparente, comprensible, precisa, seguro y respetuoso de la privacidad y los valores. En segundo lugar, se debe establecer una regulación adecuada de los modelos de IA para garantizar su uso responsable y ético como proponemos en la Ley de IA [de la UE]".

El sector privado debería sopesar los beneficios de la autorregulación. Podría ser una bendición para los desarrolladores de una empresa, por ejemplo. Los científicos de datos a veces sienten que han sido colocados en una situación difícil, dice Zoldi. "La ética de cómo construyen sus modelos y los estándares utilizados a menudo no se especifican", y esto los hace sentir incómodos.

Los fabricantes de dispositivos de IA no quieren hacer daño a las personas, pero a menudo no cuentan con las herramientas necesarias para garantizar que eso no suceda. Una cadena de bloques puede ayudar, aunque, al final, puede ser una de varias barandillas jurisdiccionales o de autorregulación que deben usarse para garantizar un futuro de IA confiable.

"Hablas con expertos y dicen: 'Somos lo suficientemente inteligentes como para poder generar esta tecnología. No somos lo suficientemente inteligentes como para poder regularla, entenderla o explicarla', y eso da mucho miedo", Zoldi. dice Revista.

En general, el potencial de blockchain para respaldar una IA responsable aún no se ha reconocido ampliamente, pero eso podría cambiar pronto. Algunos, como Anthony Day, incluso están apostando por ello: "No estoy seguro de si blockchain realmente salvará al mundo, pero estoy seguro de que puede salvar a la IA".

Dirección de correo electrónico

SUSCRIBIR

¿Gana el 500% de las sugerencias de acciones de ChatGPT? Bard se inclina a la izquierda, memecoin AI de $ 100 millones: AI Eye

$ 3.4B de Bitcoin en una lata de palomitas de maíz: la historia del hacker de Silk Road

Los mejores y los peores países para los impuestos sobre las criptomonedas, además de consejos sobre impuestos sobre las criptomonedas

El abogado pro-XRP John Deaton '10 veces más en BTC, 4 veces más en ETH': Hall of Flame

Así es como los ZK-rollups de Ethereum pueden volverse interoperables

La mayoría de las revoluciones tecnológicas vienen con un lado más oscuro imprevisto. ¿Un antídoto para lo que aqueja a la IA? Separar el artificio de la verdad Cuando los "algos se vuelven locos Implementar una cadena de bloques para rastrear el modelado de IA Una "responsabilidad moral y legal