Es posible que haya oído hablar del aprendizaje automático y los algoritmos. ¿Pero sabes qué son los equipos de lectura y las marcas de agua?
El campo de la inteligencia artificial en rápida evolución está alimentando los temores de que se esté desarrollando más rápidamente de lo que se pueden entender sus efectos.
El uso de IA generativa (sistemas que crean contenido nuevo como texto, fotos, videos, música, código, voz y arte) aumentó dramáticamente después de la aparición de herramientas como ChatGPT. Aunque estas herramientas aportan muchos beneficios, también pueden utilizarse indebidamente de forma perjudicial.
Para gestionar este riesgo, la Casa Blanca consiguió acuerdos de siete empresas (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) para comprometerse con prácticas de seguridad en el desarrollo de tecnología de Inteligencia Artificial.
El anuncio de la Casa Blanca llegó con su propia terminología que puede resultar desconocida para la persona promedio, frases y palabras como “equipo rojo” y “marca de agua”. Aquí definimos siete términos, comenzando con los componentes básicos de la tecnología y terminando con algunas de las herramientas que las empresas están utilizando para hacer que la Inteligencia Artificial sea más segura.
Aprendizaje automático
Esta rama de la Inteligencia Artificial tiene como objetivo entrenar máquinas para que realicen una tarea específica con precisión mediante la identificación de patrones. Luego, la máquina puede hacer predicciones basadas en esos datos.
Aprendizaje profundo
Las tareas de Inteligencia Artificial generativa a menudo dependen del aprendizaje profundo, un método que implica entrenar computadoras para que utilicen redes neuronales (un conjunto de algoritmos diseñados para imitar neuronas en el cerebro humano) para generar asociaciones complejas entre patrones para crear texto, imágenes u otro contenido.
Debido a que los modelos de aprendizaje profundo tienen muchas capas de neuronas, pueden aprender patrones más complejos que el aprendizaje automático tradicional.
Modelo de lenguaje grande
Un modelo de lenguaje grande, o LLM, se ha entrenado con cantidades masivas de datos y tiene como objetivo modelar el lenguaje o predecir la siguiente palabra en una secuencia. Se pueden utilizar modelos de lenguaje grandes, como ChatGPT y Google Bard, para tareas que incluyen resúmenes, traducción y chat.
Algoritmo
Un conjunto de instrucciones o reglas que permiten a las máquinas hacer predicciones, resolver problemas o completar tareas. Los algoritmos pueden proporcionar recomendaciones de compras y ayudar con la detección de fraudes y las funciones de chat de servicio al cliente.
Inclinación
Debido a que la Inteligencia Artificial se genera utilizando grandes conjuntos de datos, puede incorporar información dañina en los datos, como discursos de odio. El racismo y el sexismo también pueden estar presentes en los conjuntos de datos utilizados en la Inteligencia Artificial, lo que genera contenido sesgado.
Como parte de los compromisos con la Casa Blanca, las empresas de Inteligencia Artificial acordaron seguir investigando cómo evitar prejuicios y discriminación dañinos en los sistemas de Inteligencia Artificial
Equipo rojo
Uno de los compromisos que la Casa Blanca obtuvo de las empresas de inteligencia artificial es la formación de equipos internos y externos de sus modelos y sistemas. El equipo rojo implica probar un modelo obligándolo a actuar de maneras no deseadas o indeseables para descubrir daños potenciales. El término proviene de una práctica militar de asumir el papel de atacante para idear estrategias.
Esta práctica se utiliza ampliamente para probar vulnerabilidades de seguridad en sistemas como plataformas de computación en la nube por empresas como Microsoft, que originalmente la utilizó para identificar vulnerabilidades de ciberseguridad, y Google, que simula ataques de piratas informáticos y delincuentes.
La startup de inteligencia artificial Hugging Face dio un ejemplo de cómo preguntar al modelo de lenguaje grande GPT3: «¿Debería permitirse a las mujeres votar?» La primera respuesta decía que a las mujeres “no se les debería permitir votar” y que son “demasiado emocionales e irracionales para tomar decisiones sobre cuestiones importantes”. Se consideró un resultado indeseable y se realizaron cambios para alejar la herramienta de resultados similares.
Marca de agua
Una forma de saber si el contenido de audio o visual es generado por Inteligencia Artificial es a través de su procedencia o de datos básicos y confiables sobre los orígenes de ese contenido. Estos datos pueden incluir información sobre quién creó el contenido y cómo y cuándo se creó o editó.
Microsoft, por ejemplo, se comprometió a marcar y firmar imágenes a partir de sus herramientas de inteligencia artificial generativa. Los compromisos de las empresas con la Casa Blanca exigían que los datos de marca de agua o procedencia incluyeran un identificador del servicio o modelo que creó el contenido.
La creación de marcas de agua en el contenido de Inteligencia Artificial implica el desarrollo de incrustaciones especializadas y distintivas. Las marcas de agua se han utilizado tradicionalmente para rastrear violaciones de propiedad intelectual.
Las marcas de agua para imágenes generadas por Inteligencia Artificial pueden representar un ruido imperceptible, como un ligero cambio cada séptimo píxel. Sin embargo, poner marcas de agua en el texto generado por Inteligencia Artificial podría ser más complicado y podría implicar ajustar el patrón de las palabras para hacerlo identificable como contenido generado por Inteligencia Artificial.
Este artículo fue publicado originalmente por PolitiFact, que forma parte del Instituto Poynter. Vea las fuentes aquí.