La nueva serie editorial de Dezeen, AItopia, tiene que ver con la inteligencia artificial. En esta guía, explicamos los términos clave en el campo y por qué son importantes.
La inteligencia artificial (IA) generalmente se resume como computadoras que realizan tareas que de otro modo requerirían un cerebro humano, como jugar al ajedrez, reconocer rostros, conducir un automóvil o leer un texto y seleccionar la información importante.
Es un área llena de jerga, por lo que Dezeen ha producido este glosario de algunos de los términos más comunes e importantes. Todas las definiciones fueron escritas por un humano.
Aprendizaje automático
El aprendizaje automático es cuando las computadoras usan la experiencia para mejorar su rendimiento. Es la base de la mayoría de las capacidades avanzadas de los sistemas de IA.
En lugar de que los humanos programen computadoras con instrucciones específicas paso a paso sobre cómo completar una tarea, en el aprendizaje automático, un humano proporciona datos a la IA y le pide que logre un determinado resultado a través de un algoritmo.
A través de un proceso de prueba y error ultrarrápido, la IA puede comenzar a detectar patrones muy rápidamente, incluidos aquellos que los humanos no pueden identificar, y usarlos para hacer predicciones sobre lo que es probable que lo ayude a lograr el resultado deseado.
Por ejemplo, a una IA se le pueden enseñar las reglas y los objetivos de un juego y dejar que pruebe millones de movimientos y descubra cuál es más efectivo. En un corto período de tiempo, el sistema pasaría de hacer movimientos aleatorios a dominar el juego.
Aprendizaje profundo
El aprendizaje profundo es un tipo específico de aprendizaje automático que se utiliza en los sistemas de IA más potentes. Imita cómo funciona el cerebro humano utilizando redes neuronales artificiales (explicadas a continuación), lo que permite que la IA aprenda patrones muy complejos en los datos.
Si bien los sistemas de aprendizaje automático pueden mejorar en las tareas en las que han sido capacitados cuando se les presentan datos nunca antes vistos, el aprendizaje profundo permite que las computadoras aprendan a hacer cosas para las que nunca fueron capacitados.
Como resultado, abre la puerta a máquinas capaces de realizar muchas tareas diferentes significativamente mejor que los humanos.
El aprendizaje profundo fue pionero entre 2010 y 2015 por Mente profundauna empresa fundada en Londres por los investigadores de la UCL Demis Hassabis y Shane Legg y adquirida por Google en 2014.
Redes neuronales
Las redes neuronales se encuentran en el cerebro humano. Son una serie de neuronas conectadas entre sí que intercambian información, fortaleciendo sus conexiones al hacerlo y permitiéndonos aprender.
Los sistemas avanzados de IA utilizan redes neuronales artificiales que imitan estas estructuras, procesando datos a través de capas de neuronas artificiales interconectadas para mejorar en la realización de predicciones.
IA estrecha
A veces llamada IA débil, la IA estrecha se refiere a los sistemas de IA que solo pueden completar tareas específicas, como la conducción automática o el reconocimiento de imágenes. Pueden realizar estas tareas mucho mejor que los humanos, pero no pueden aplicar su inteligencia a diferentes problemas y situaciones.
Todos los sistemas de IA que existen actualmente son IA estrecha.
inteligencia general artificial
La definición de inteligencia general artificial (IAG) es un tema de debate entre los expertospero en el nivel más básico generalmente se refiere a que una computadora puede realizar cualquier tarea intelectual que un ser humano pueda.
Es probable que una computadora de este tipo pueda realizar estas tareas mucho más rápido y mejor que un ser humano, lo que significa que la aparición de AGI podría tener enormes implicaciones para la sociedad. Ian Hogarth, coautor de el informe anual sobre el estado de la IAlo llama “IA como Dios”: “Un ordenador superinteligente que aprende y se desarrolla de forma autónoma, que entiende su entorno sin necesidad de supervisión y que puede transformar el mundo que le rodea”.
A menudo es de lo que habla la gente cuando habla de los peligros de la IA, preocupándose de que la AGI pueda llevar a que los humanos se vuelvan obsoletos o incluso se extingan. Una carta abierta muy publicitada emitida en marzo que pedía una moratoria en el desarrollo de sistemas de IA cada vez más poderosos advertía sobre “mentes no humanas que eventualmente podrían superarnos en número, burlarnos, quedar obsoletas y reemplazarnos” y “pérdida de control de nuestra civilización”.
Algunos expertos argumentan que las advertencias son exageradas y existe un debate sobre si los riesgos existenciales hipotéticos que plantea AGI deberían ser una preocupación principal, así como cuán poderoso sería dicho sistema cuando llegue. Las empresas que intentan desarrollar AGI, incluidas Google DeepMind y OpenAI, afirman que podría ayudar a resolver los problemas más importantes del mundo, como las enfermedades, el cambio climático y la pobreza, y la inversión en este campo se ha disparado en los últimos años.
Hasta hace poco, la mayoría de la gente creía que AGI estaba muy lejos. Sin embargo, en marzo OpenAI lanzó el poderoso chatbot GPT-4que ha demostrado ser capaz de desempeñarse a nivel humano en una gran cantidad de tareas de razonamiento y conocimiento, aprobar el examen de la barra, vencer a los humanos en varios juegos, usar el razonamiento para mejorar e incluso engañar a las personas. Un artículo de investigadores de Microsoftque es un inversor importante en OpenAI, concluyó que GPT-4 “podría verse razonablemente como una versión temprana (pero aún incompleta) de un sistema AGI”.
Las estimaciones sobre cuánto tiempo pasará antes de que surja un verdadero sistema AGI oscilan entre cinco y 50 años o más.
superinteligencia
En su influyente libro de 2014 Superinteligencia: Caminos, Peligros, Estrategias, el filósofo Nick Bostrom definió la superinteligencia como “cualquier intelecto que supere con creces el rendimiento cognitivo de los humanos en prácticamente todos los dominios de interés”. Algunos investigadores predicen que la superinteligencia surgiría poco después del advenimiento de AGI, pero otros dudan que alguna vez se convierta en realidad.
Si se creara un AGI superinteligente, existen preocupaciones sobre si los humanos podrían controlarlo. Bostrom y el profesor de la Universidad de California, Berkeley, Stuart Russell, han advertido que incluso darle a un AGI superinteligente una tarea aparentemente sensata y sencilla podría tener resultados inesperados y devastadores.
“Si ponemos el objetivo equivocado en una máquina superinteligente, creamos un conflicto que estamos obligados a perder”, dijo. en una conferencia de 2021. “La máquina no se detiene ante nada para lograr el objetivo especificado”.
El ejemplo clásico utilizado para explicar la dificultad de programar una máquina superinteligente sin valores humanos es el experimento mental del “maximizador de clips” de Bostrom. Una IA superinteligente encargada de producir clips usa sus habilidades de superación personal para volverse extremadamente eficiente al hacerlos, inundando el mundo con clips usando cualquier cosa que pueda encontrar, incluidos los átomos en nuestros cuerpos. Si los humanos trataran de apagar la máquina, probablemente encontraría una manera de detenernos.
Alineación
En el contexto de la IA, la alineación se refiere a los intentos de asegurarse de que los sistemas tengan objetivos que coincidan con los valores humanos, a fin de reducir el riesgo de que puedan dañarnos. Actualmente, a menudo implica garantizar que los chatbots de IA no participen en contenido dañino.
Sin embargo, crear computadoras con una ética verdaderamente humana es muy difícil y aún no existe un consenso científico sobre cómo funcionaría, ni siquiera en teoría. La alineación ha recibido muchos menos fondos que la investigación centrada en hacer que los sistemas de IA sean más potentes y avanza más lentamente como campo.
Singularidad
Un término tomado de las matemáticas, la singularidad es el punto hipotético en el futuro en el que la tecnología ha avanzado hasta el punto en que es incontrolable e irreversible.
Algunos consideran que la aparición de un AGI más inteligente que los humanos es el momento más probable de singularidad. Una interpretación popular de la teoría sostiene que después de este punto, la tecnología entraría en un período de rápidos avances exponenciales difíciles de comprender, con los humanos usurpados como los seres dominantes en la Tierra.
IA generativa
Los sistemas de IA generativa son aquellos que pueden crear diferentes tipos de contenido, incluidas imágenes, texto, videos, música, audio de voz y código. Están capacitados en grandes cantidades de datos y, mediante el proceso de aprendizaje automático, pueden extrapolarlos para producir nuevos datos.
Los ejemplos incluyen generadores de texto a imagen como DALL-E 2, a mitad de camino y Difusión estable, en el que los usuarios ingresan un mensaje de texto y el modelo produce rápidamente una imagen correspondiente. Chatbots como ChatGPT de OpenAI y Bardo de Google también son formas de IA generativa.
La aparición de estas herramientas fáciles de usar en los últimos dos años ha aumentado drásticamente el interés en la IA generativa. La tecnología tiene el potencial de impulsar la productividad en una amplia gama de industrias, incluidas la arquitectura y el diseño. El director de Zaha Hadid Architects, Patrik Schumacher, reveló recientemente que la firma está utilizando generadores de texto a imagen para crear diseños iniciales para proyectos.
Sin embargo, los comentaristas también han expresado su preocupación por el potencial de la IA generativa para difundir información errónea, tanto sin darse cuenta como maliciosamente. La versión más avanzada de Midjourney es capaz de producir imágenes casi fotorrealistas pero completamente fabricadas.
Además, la tecnología puede ser susceptible a sesgos y estigmas incrustados en los datos de entrenamiento. Otros han sugerido que su capacidad para imitar los medios existentes de manera tan convincente podría tener importantes implicaciones para los titulares de derechos de autor.
Grandes modelos de lenguaje
Los modelos de lenguaje extenso (LLM) son sistemas de inteligencia artificial que utilizan el aprendizaje profundo para comprender el lenguaje. Un ejemplo es el transformador preentrenado generativo, que impulsa ChatGPT.
Los LLM están capacitados en enormes cantidades de datos para volverse muy buenos en el reconocimiento de patrones de lenguaje, como una forma muy avanzada de texto predictivo. Como resultado, son menos competentes para resolver ecuaciones matemáticas.
alucinaciones
Los chatbots de LLM son propensos a declarar falsedades, ya sea que se equivoquen o inventen cosas por completo. En la industria, estos episodios se denominan alucinaciones, aunque algunos argumentan que este término hace que los sistemas de IA parezcan más humanos de lo que realmente son.
Su tendencia a generar falsedades casuales y convincentes sigue siendo una de las principales deficiencias de los LLM como ChatGPT. “Nadie en el campo ha resuelto los problemas de alucinaciones”, dijo el CEO de Google, Sundar Pichai. dijo recientemente en una entrevista.
La foto es de Michael Dziedzic vía Unsplash.

AItopía
Este artículo es parte de la serie AItopia de Dezeen, que explora el impacto de la inteligencia artificial (IA) en el diseño, la arquitectura y la humanidad, tanto ahora como en el futuro.