La Regulación por Sí Sola No Nos Salvará de las Big Tech

Una publicación de Illia Polosukhin

NEAR_ES
5 min readJul 16, 2024

Artículo publicado en Near.org el 28 de junio de 2024

Traducido por América Castro

Imagen https://near.org/blog/regulation-alone-will-not-save-us-from-big-tech

Cada semana, vemos nuevos titulares sobre demandas contra las principales compañías de inteligencia artificial (AI) y disputas entre reguladores sobre cómo gestionar adecuadamente la seguridad de la AI. Desde las notables salidas de ejecutivos de OpenAI por la gestión de la seguridad hasta los empleados denunciantes que piden más transparencia, está claro que incluso aquellos más cercanos a la tecnología están preocupados por los riesgos que representa una AI súper poderosa y cerrada. ¿Cómo podemos gestionar mejor este riesgo?

Argumentaría que la regulación por sí sola no nos salvará de que las Big Tech monopolicen la AI de propiedad corporativa. Aún hay tiempo para hacer que la AI sea justa, abierta y beneficiosa para el mundo, pero no mucho tiempo. La AI debe ser propiedad de los usuarios y de código abierto para ser una fuerza positiva para la humanidad.

Soy uno de los co-creadores de Transformers, o la “T” en ChatGPT, que creamos dentro de una de las compañías de tecnología más grandes del mundo. Poco después de publicar esa investigación, me fui para fundar una startup y trabajar en código abierto (software cuyo código fuente está disponible para que otros lo lean y usen). Aunque creo fundamentalmente que la AI puede mejorar la vida humana y maximizar nuestra inteligencia colectiva, estoy de acuerdo en que una AI poderosa centrada en el lucro de unos pocos es riesgosa en el mejor de los casos y peligrosa en el peor.

El desarrollo de AI más destacado hoy en día está ocurriendo dentro de grandes compañías con fines de lucro. El enorme ciclo económico de la AI significa que solo unas pocas mega-corporaciones controlarán las herramientas de inteligencia más avanzadas del mundo y tomarán decisiones sobre ellas a puertas cerradas. La ventaja de los titulares de estas mega-corporaciones se hace cada vez mayor porque ya tienen mucho dinero para construir centros de datos más grandes, muchos datos de usuarios e internet disponibles y ciclos de retroalimentación de usuarios establecidos.

Los gigantes tecnológicos modernos son flexibles para adoptar nuevas tecnologías a un ritmo más rápido que las empresas anteriores y tienen marcos establecidos para hacerlo. Cada modelo optimiza algo, y cada compañía cerrada con fines de lucro naturalmente optimizará para obtener beneficios. A su vez, los modelos y sistemas que estas compañías construyen siempre están optimizados para maximizar sus propios ingresos, en lugar de cualquier tipo de métrica de éxito para los usuarios.

La misma historia se ha repetido una y otra vez con las grandes corporaciones tecnológicas: cuando un mercado de usuarios se vuelve tan grande que no hay tantos nuevos usuarios por adquirir, las presiones de lucro requieren encontrar nuevas formas de extraer más dinero y captar más atención de cada usuario existente. Esto a menudo resulta en la explotación de los usuarios, no porque estas compañías o sus empleados intenten ser maliciosos, sino porque así es como están diseñadas para funcionar las grandes empresas cerradas.

Entonces, ¿qué podemos hacer al respecto? Los denunciantes sugieren que la solución es más regulación sobre la AI, pero no estoy de acuerdo. A menudo, las personas que redactan las regulaciones no entienden bien la tecnología como para mantenerse al día y, por lo tanto, introducen requisitos que son ilógicos o imposibles de cumplir. La regulación es lenta y reactiva en lugar de proactiva, sofocando la innovación y dificultando que las startups compitan y diversifiquen el mercado. Las regulaciones por sí solas no pueden controlar una tecnología increíblemente poderosa y compleja que cambia más rápido de lo que incluso sus creadores a menudo se dan cuenta, lo que a menudo resulta en pedir perdón después de que ya es demasiado tarde para prevenir el resultado negativo.

Veo una solución más constructiva: necesitamos invertir en código abierto y AI de propiedad de los usuarios. Construir en abierto posiciona a los creadores de AI para colaborar en la gestión proactiva del riesgo, mejorar la seguridad para los usuarios y auditar y monitorear los resultados. Todos los datos que se utilizan para entrenar un modelo deben ser de código abierto para garantizar que no haya datos maliciosos, para desentrañar posibles sesgos inherentes al modelo y para depurar problemas (solo compartir parámetros significa que el comportamiento malicioso o el sesgo inherente pueden afectar todas las aplicaciones subsecuentes). En la AI de propiedad corporativa, las decisiones sobre qué datos se incluyen y cuáles no son completamente opacas para los usuarios, y esos datos podrían estar (tal vez ya lo estén, pero espero que no) sujetos a la priorización del mayor postor, sin que tengamos forma de saberlo con certeza. El código abierto asegura una comunidad más diversa de colaboradores y una base más amplia de personas que revisan y prueban el código y validan de forma económica que los modelos estén entrenados en un conjunto de datos declarado.

La AI de propiedad de los usuarios significa herramientas de inteligencia que optimizan para el bienestar y éxito de los usuarios individuales y sus comunidades (en lugar de maximizar el lucro para la compañía que construye el modelo). Las métricas de bienestar y éxito podrían incluir oportunidades de ingresos para el usuario, garantías alrededor de su privacidad y protección de sus datos y activos, y tiempo ahorrado. No solo los investigadores y las compañías pueden seguir ganando dinero en este paradigma al construir grandes productos que los usuarios desean, sino también los usuarios, quienes pueden monetizar selectivamente sus datos (probablemente anonimizados) o ser recompensados por su atención. La AI de propiedad de los usuarios también mejorará la capacidad de los usuarios para personalizar y adaptar sus experiencias digitales, en lugar del enfoque actual donde las grandes compañías entregan aplicaciones y experiencias rígidas y monolíticas.

Aunque las murallas de las grandes tecnológicas son difíciles de vencer, hay una oportunidad para introducir alternativas de código abierto y mejores marcos antes de que sea demasiado tarde. Los riesgos son lo suficientemente altos como para no intentarlo.

Sigue las cuentas de NEAR Es en Español

X (Twitter) oficial de NEAR_ES

Canal YouTube: NEAR_ES

NEAR Social: NEAR_ES

Telegram oficial de NEAR_ES

--

--

NEAR_ES
NEAR_ES

Written by NEAR_ES

Espacio informativo y educativo sobre NEAR Protocol, Aurora, web3 y blockchain en Español para toda la comunidad

No responses yet