Estamos frente a uno de los momentos más trascendentales de la historia de la humanidad. ¿Cuáles son las implicaciones y los posibles caminos hacia donde nos dirigimos?
En los últimos 2 años hemos visto una enorme ola de noticias y lanzamientos sobre productos en la rama de la inteligencia artificial, y para aquellos que trabajamos en la industria de la tecnología, es cada vez más evidente que nos encontramos frente a algo enorme.
La ciencia y la tecnología siempre han sido los dos grandes motores del progreso humano, y para mí personalmente, las dos grandes pasiones que le dan gran sentido y curiosidad intelectual a mi vida.
A lo largo de los años, hemos visto un gran avance en estas dos áreas, pero aparentemente estamos por dar un salto mucho más grande que nunca antes. Este evento tiene muchas implicaciones sociales, económicas, políticas, éticas y más, y desafortunadamente, no todas podrían ser positivas.
En este artículo, mi objetivo es compartir mis opiniones y reflexiones sobre la era de la inteligencia artificial, la cual, desde mi perspectiva, ya no es un concepto futuro, sino la realidad presente.
Debido a los recientes lanzamientos y el progreso superacelerado que estamos viviendo, durante los últimos 6 meses este tema ha sido (por mucho) el que más ha estado en mi cabeza, y en los siguientes párrafos intentaré expresar mis pensamientos y sentimientos al respecto.
Antes de publicar este artículo, algunos buenos amigos me hicieron el favor de leer un borrador, y uno de ellos me preguntó cuál era el objetivo detrás de su publicación. Esta pregunta es muy válida, ya que comprender las intenciones detrás de todo el contenido es fundamental para entender los objetivos de escribir y publicar el artículo en primer lugar. Básicamente son tres:
Cabe señalar que predecir el futuro es muy difícil, y hacerlo cuando tus predicciones se basan en multiples suposiciones de las que no tienes total certeza, es cercano a imposible. Por eso quiero dejar claro que muy probablemente gran parte de mis reflexiones terminaran no siendo acertadas.
En la situación en la que nos encontramos, nadie puede predecir con exactitud que nos espera en el futuro, así que esta publicación no tiene la intención de persuadirte a creer lo que yo creo, sino de que te informes con mucha más profundidad y llegues a tus propias conclusiones.
Por otro lado, si has leído o escuchado a alguien que asegura conocer con certeza todo lo que va a pasar, recuerda que vivimos en un mundo lleno de charlatanes, y creer que tu lectura del futuro es infalible, probablemente terminara teniendo efectos negativos en el largo plazo.
El artículo se dividirá en tres segmentos:
Comencemos.
Este primer segmento quizás puede ser el menos relevante para todas aquellas personas que ya estén fuertemente familiarizadas con los recientes lanzamientos en la rama de inteligencia artificial. Si por el otro lado, ese no es tu caso, continúa leyendo.
El concepto de inteligencia artificial no es nuevo. Originalmente, el término de inteligencia artificial fue acuñado por John McCarthy en 1956. Dos años después, se inventó el Perceptron por Frank Rosenblatt, y este fue la primera máquina de AI capaz de reconocer y categorizar imágenes mediante una red neuronal artificial. Aunque el Perceptron tenía considerables limitaciones en cuanto a su capacidad de reconocer patrones complejos, sentó las bases para el desarrollo de redes neuronales mucho más avanzadas en el futuro.
Desde ese entonces se continuó desarrollando e investigando en el campo de la inteligencia artificial, y aunque hubo algunos grandes inviernos de AI (periodos en los cuales el interés e investigación en este campo se redujo considerablemente), generalmente seguimos progresando mucho hasta este momento.
Mi intención no es contar todo el pasado de la inteligencia artificial, ya que hay grandes libros y artículos que lo hacen mucho mejor de lo que yo podría hacerlo, por lo tanto, daremos un gran salto hasta hace un par de décadas.
En 1997, una version mejorada de Deep Blue (desarrollada por IBM) venció en ajedrez a Garry Kasparov, el entonces mejor jugador del mundo. En un encuentro de 6 partidas, Deep Blue gano 3 y empato 1, convirtiéndose en la primera computadora en derrotar a un campeón del mundo en ajedrez.
Deep Blue estaba entrenada con un dataset gigante de juegos de ajedrez, permitiéndole realizar búsquedas exhaustivas y evaluar posiciones de manera eficiente. Con base a este dataset, Deep Blue utilizaba árboles de decision para evaluar cada posición de ajedrez y sus posibles resultados futuros, para así poder decidir cuál era la mejor jugada a llevar a cabo.
La victoria de Deep Blue fue un gran logro en la historia de la inteligencia artificial, pero algo mucho más impresionante paso unos años después.
Hace poco más de 5 años, en Diciembre de 2017, Google lanzo su inteligencia artificial AlphaZero, la cual venció a Stockfish 8, que era el entonces mejor software de ajedrez del momento. Stockfish 8 era capaz de calcular 70 millones de posiciones de ajedrez por segundo, mientras que AlphaZero solamente calculaba 80 mil.
Lo extraordinario de todo esto es que Google nunca enseño ajedrez a AlphaZero, ni le proveyó ningún dataset de jugadas pasadas, sino que empleo un algoritmo avanzado de aprendizaje automático para que AlphaZero aprendiera jugando contra sí mismo/a. En tan solo 4 horas, concluyo el entrenamiento y pudo derrotar al software más avanzando de ajedrez en ese momento.
Aún más impresionante fue que para los ojos humanos muchas de las estrategias ganadoras de AlphaZero eran increíblemente no convencionales, creativas y nunca antes vistas, ya que a diferencia de las AI anteriores, AlphaZero no tuvo ningún entrenamiento con datasets humanos. ¿Impresionante, no?
AlphaZero obtuvo algunos otros hitos muy sobresalientes que podría mencionar, pero creo que es el suficiente contexto que necesitaba añadir para poder volver al presente. Continuemos.
En 2023 llevamos muchos años utilizando inteligencia artificial en productos y servicios que utilizamos día a día, por ejemplo, el reconocimiento de voz en los asistentes virtual (Siri o Google Assistant), los algoritmos de contenido de la gran mayoría de las redes sociales (Facebook, Instagram, TikTok), la optimización aplicada a las fotografías que tomamos en prácticamente cualquier smartphone moderno, seguido por un largo etcetera.
Pero el cambio principal de paradigma es que recientemente han aparecido modelos avanzados de AI que están al alcance de prácticamente cualquier persona.
Hemos visto 3 categorías principales de modelos avanzados que están disponibles actualmente para el público:
Mi principal preocupación es que muchos de estos modelos son tan buenos, que para muchas tareas pueden tener un desempeño igual o mejor que muchos humanos, y si bien no estamos hablando de los humanos que se encuentran en el top 10% de eficiencia o calidad de una tarea específica (aún), si probablemente de todos aquellos que no están en un nivel tan alto.
Sumado a esto, el costo de ejecutar estos modelos es impresionantemente bajo. En el caso de uno de los modelos más poderosos de OpenAI, GPT-3.5-Turbo (la versión predecesora a GPT-4), el precio es de tan solo $1 dólar por 500,000 tokens (alrededor de 375,000 palabras).
En los últimos años, hemos visto automatización en muchas áreas (en la manufactura, en el sector de la construcción, en la industria de la agricultura, en las operaciones logísticas, etc.), pero muchos de nosotros creíamos que los trabajos creativos eran la última frontera.
Muchas personas (incluyéndome) pensábamos que si bien una AI podría traducir una oración entre dos idiomas o detectar nuestra voz al decir Hey Siri y ayudarnos a buscar el restaurante de pizza más cercano, nunca sería posible que una AI escribiera una canción, creara un dibujo único, o programara una función en prácticamente cualquier lenguaje de programación.
Pero aquí estamos en pleno Abril de 2023 y muchas de esas cosas son perfectamente posibles de hacer por una AI, y todo en una fracción minúscula del tiempo que le tomaría a un humano.
¿Son perfectas? No. Pero la velocidad a la que avanzan es sorprendentemente veloz. Pongamos algunos ejemplos.
Midjourney es probablemente la AI de generación de imágenes más avanzada del momento, y si examinamos su progreso en tan solo 1 año (367 días para ser precisos), podemos ver una mejora impresionante.
Como serán las imágenes que produzca en Marzo de 2024? No sé, y estaría mintiendo si dijera que no me da un poco de miedo.
En el caso del modelo GPT (generative pre-trained transformer) de OpenAI, los lanzamientos sucedieron de la siguiente manera:
Si probamos GPT-4, los resultados que nos da no solo son sorprendentes si los vemos desde el punto de vista de la generación de texto, sino que aún mucho más importante, muestra signos de razonamiento y lógica.
En el siguiente ejemplo, le pregunto a GPT acerca de un problema matemático en el que comúnmente nos equivocamos los humanos (al menos yo me equivoque la primera vez que me lo plantearon), asegurándome de formular el problema de una manera diferente al original (cambiando el orden del texto, cabras por cajas, y el auto por un tesoro), para así esforzarnos en que no esté simplemente imprimiendo datos del dataset original.
Sorprendentemente, responde de manera perfecta.
Posterior a eso, le pido que me ayude a escribir una función en Python para simular el escenario antes mencionado 1,000 veces y posteriormente lo imprima en un archivo CSV para poder abrirlo y verificarlo. De este modo podemos validar que en un experimento práctico el resultado es el que sugiere (aunque ya lo sabemos).
En cuestión de unos segundos el código está completo, así que procedo a guardarlo en un archivo function.py y ejecutarlo en la Terminal de mi Mac. Funciona a la perfección.
No sé a ti, pero a mi ver algo como esto simplemente me explota el cerebro (!) y me deja sin palabras. Lo más impresionante es que gracias al soporte de hasta 32,000 tokens de contexto en el modelo de GPT-4, o al modelo de embedding Ada (También de OpenAI), GPT puede entender y escribir código en librerías o frameworks que han sido lanzados posteriormente al entrenamiento original del modelo.
Lo recién mencionado no solo aplica para solicitar a GPT que escriba código, sino también para hacer consultas a grandes volúmenes de contenido. Por ejemplo, puedo embeber (no estoy seguro de que esa palabra exista realmente en español) un libro entero de mi autor favorito, y preguntarle con lenguaje natural sobre el contenido del libro, o incluso preguntarle sobre lo que el modelo infiere que opina el autor — lo he probado, y es impresionante (!).
Lo mejor (¡y lo peor!) de todo, es que esto solo es una diminuta parte de lo que puede hacer GPT. En realidad las posibilidades son mucho, mucho más grandes.
GPT-4 es el primer modelo de GPT que es multimodal, al no solo poder recibir inputs de texto, sino de imágenes también. Es quizás lo más cercano que tenemos a un modelo de AI avanzado de computer vision. A continuación hay un demo —impresionante— de esto:
Casi concluyendo este primer segmento del artículo, quiero dejar clara la idea principal que estoy tratando de comunicar, que es la siguiente:
Esto muy probablemente es solo el principio. Lo que te mostré arriba es simplemente la punta del iceberg, y es el ejemplo de los modelos en bruto. Una vez implementado esto en software de uso masivo (por ejemplo, Microsoft 365 Copilot), esto involucrará un cambio monumental.
Esto ya está comenzando a suceder, y lo podemos ver con el lanzamiento de la beta privada de ChatGPT Plugins, que básicamente conecta al modelo GPT-4 con herramientas externas para no solo generar texto o código, sino poder ejecutar todo tipo de acciones. Podemos imaginarlo como el momento en donde los primeros homínidos inventaron la piedra tallada como herramienta para cortar y golpear.
Un ejemplo de esto es como Joshua Browder, CEO de DoNotPay, pidió a ChatGPT con el plugin de Browser que le consiguiera algo de dinero, y ChatGPT encontró una página del gobierno de california, después busco fondos sin reclamar y dio las instrucciones exactas para solicitar un reembolso de $209.67 USD.
Es altamente probable que el sistema por el cual solicitamos a GPT u otros modelos obtener resultados (aka prompts) vaya a cambiar con el paso de los años a una interfaz mucho más sencilla y amigable. Podemos imaginar el presente como los comienzos de las computadoras personales, donde teníamos que usar MS-DOS como consola para interactuar con la computadora.
Las computadoras personales siguen ejecutando comandos para prácticamente todo lo que hacemos, pero esos comandos están escondidos detrás de la interfaz y no necesitamos verlos.
Así mismo, miles de empresas implementarán esta tecnología en software de uso cotidiano (muchas ya lo han hecho), aumentando radicalmente la productividad y eficiencia de los usuarios, pero también probablemente dejando de necesitar a muchos trabajadores humanos para ciertas tareas en específico.
Solo por mencionar algunas de las que han sido más habladas, tenemos:
La realidad es que la lista es interminable. Sin afán de exagerar, podría poner 100 enlaces más y no acabaría con todos los que tengo registrados en mi sistema de bookmarks (y se agregan 5+ cada día).
Muchas personas trabajando en la industria de la tecnología ven cierto paralelismo entre el lanzamiento de la App Store para el iPhone por Steve Jobs en 2008, y el reciente lanzamiento de ChatGPT Plugins hace solo algunas semanas.
A todo esto, sumémosle dos importantes factores.
Con esto en consideración, creo que es sensato llegar a la siguiente conclusión (al menos para mí):
Probablemente la ola de AI no va a terminar pronto, lo que significa que seguiremos viendo modelos más rápidos, más capaces, y eso tendrá fuertes implicaciones.
A diferencia del segmento anterior, en el cual gran parte de lo que presente son hechos, en este segmento entramos en terreno mucho más difuso, por lo tanto, recuerda que estas son mis predicciones, y muy probablemente serán equivocadas.
Creo de manera muy profunda, que la creación de inteligencia artificial general sería el suceso más importante en la historia de la humanidad (al menos hasta el momento). Hace apenas un par de días vi la película Ex Machina, una película de ciencia ficción sobre inteligencia artificial (Increíble que no la haya visto antes, ¿no? — La verdad es que no veo muchas películas), y una frase mencionada se me quedo muy grabada:
“Crear una máquina consciente no es parte de la historia del hombre. Es la historia de los dioses”
Suena como algo muy influenciado por la ciencia ficción (y muy probablemente lo está), pero, creo que hay cierta verdad en que el traer un nuevo ‘ser’ inteligente a la vida nos hace ver como dioses, al menos desde el punto de vista de muchas religiones.
Pero no quiero que esta sección se quede en temas filosóficos o subjetivos, así que entremos en detalles.
Pienso que hay altas posibilidades de que los escenarios que describo a continuación los veamos suceder en un futuro no muy lejano. Cabe mencionar que estos escenarios no son excluyentes entre sí, sino que muy probablemente pueden suceder en paralelo.
Tampoco el mundo es blanco y negro, por lo que todos estos escenarios también pueden suceder en diferentes grados de intensidad.
Comencemos con aquellos que podríamos categorizar como negativos.
Es altamente probable que en el corto plazo veamos una ola de desempleo masiva debido a la automatización de tareas básicas por los modelos de inteligencia artificial.
Si bien es cierto que la ola de AI permitirá la creación de nuevos empleos potencialmente mejores y más creativos (por ejemplo, ya vemos que empresas empiezan a buscar Prompters que entiendan profundamente cómo solicitar tareas específicas a estos modelos), creo que es muy probable que no veamos una equivalencia entre los trabajos perdidos vs. los trabajos creados, sino todo lo contrario.
Esto no es muy difícil de deducir, ya que es evidente que muchas tareas podrán ser desempeñadas por AI en una fracción del tiempo y el costo que le tomaría a trabajadores humanos convencionales.
Este tema es algo muy bien documentado e incluso vemos a grandes empresas como Goldman Sachs (una de las firmas financieras más famosas del mundo) estimando que 300 millones de trabajos se perderán por esta causa. Desafortunadamente, yo considero que el número es potencialmente mucho mayor.
La desigualdad en el mundo ha alcanzado niveles alarmantes en la actualidad, y existe una preocupación creciente de que la próxima ola de inteligencia artificial pueda aumentarla aún más, quizás en un orden de magnitud superior.
Imaginemos un futuro no muy lejano, en el que una empresa necesita 100 agentes de ventas, y en vez de entrevistar, entrenar y contratar a 100 humanos, decide simplemente prender un servidor, cargar el modelo de AI de su preferencia, y tener a 100 (o 200, 500 o 1,000) inteligencias artificiales trabajando en paralelo.
El costo para poder completar esta tarea sería únicamente la renta diaria o mensual del servidor donde se están ejecutando estos modelos (nada distinto a como hoy hacemos deploy de una aplicación a un servidor de Amazon Web Services, Google Cloud o DigitalOcean) y muy probablemente será mucho más barato que contratar agentes humanos.
Como referencia, el costo para entrenar ImageNet para obtener un resultado del 93% en las pruebas de precision paso de costar $1,000 USD en 2017 a tan solo $4.59 USD en 2021. Probablemente el costo en este momento sea de menos de $1 USD.
Esto resultara en que el leverage de trabajar en el problema correcto, con la gente correcta, en el momento correcto, será decenas (o cientos) de veces mayor al que tenemos actualmente, dando como resultado la capacidad de acumular cantidades inmensurables de riqueza.
Creo que es casi un hecho que en las siguientes décadas (pero muy probablemente antes) veamos a los primeros trillionaires (Personas con un capital acumulado de un millón de millones de dólares. No uso el término en español porque significa un monto diferente).
Durante gran parte de toda la historia humana moderna, el antropocentrismo ha sido una de las ideologías más arraigadas a nuestra sociedad.
En 1543, Nicolas Copérnico planteo la teoría de que la Tierra no es el centro del universo, y posteriormente en 1610, Galileo Galilei confirmo esta teoría mediante una serie de observaciones en su telescopio.
Independientemente de que hoy tenemos claro que la Tierra no es el centro del universo, y que probablemente hay mucho más para explorar allá afuera, la inmensa mayoría de la sociedad sigue teniendo una fuerte ideología antropocéntrica y humanista.
Por ejemplo, la gran mayoría de las culturas y religiones ven a los animales únicamente como recursos a la disposición de los intereses humanos — Contradictorio a lo que la teoría evolutiva nos ha confirmado, es decir, que tenemos ancestros comunes con todos los seres vivos, y que la selección natural y la evolución nos ha traído a donde estamos, pero no tenemos algo categóricamente distinto a ellos.
Ahora, imagina que los científicos trabajando en AI y ML logran desarrollar AGI (inteligencia artificial general) en unos años. ¿Qué significaría esto para nosotros? Por primera vez en nuestra historia, dejaríamos de ser los únicos seres”inteligentes” (De acuerdo a nuestro concepto de inteligencia como sociedad, aunque muchos animales también muestran rasgos de lo que académicamente conocemos como inteligencia).
Esto tiene profundas implicaciones sociales, políticas y culturales, pero aun si nos olvidamos de eso (y es importante que no lo hagamos), es evidente que hoy en día nuestro valor humano está fuertemente correlacionado con nuestra capacidad de producción de capital.
La mayor parte de las sociedades actuales miden el valor personal tomando en consideración tu puesto de trabajo, cuantos seguidores tienes en la red social de moda, en donde vives, en que escalón de la jerarquía social te encuentras, etc.
Para fortuna (o desfortuna) de nosotros como humanos, la gran mayoría de nosotros aún tenemos valor capital, esto debido a que podemos desempeñar muchas actividades que todavía no han logrado ser automatizadas, entonces el sistema nos necesita y a pesar de existir niveles de desigualdad alarmantes, seguimos teniendo la capacidad de ejecutar tareas por las que el sistema nos recompense económicamente.
En el futuro cercano, cuando la gran mayoría, o el total, de los trabajos de entrada puedan ser desempeñados de mejor manera por AI, todos los trabajadores que sean reemplazados sufrirán de uno de los fenómenos más tristes: La irrelevancia.
Si perdemos nuestro puesto en la Tierra como los únicos seres ’inteligentes’, y simultáneamente perdemos nuestro valor como seres productivos, probablemente no estaremos contentos.
Desafortunadamente, antes de pasar a los posibles escenarios positivos, hay otra categoría que es muy latente, y son los escenarios que podemos categorizar como altamente negativos.
Antes de enlistarlos, es importante tener un poco de contexto sobre un punto muy importante en todo este tema, y es el siguiente:
Fundamentalmente, no sabemos cómo funciona la AI que estamos desarrollando.
Los LLM (Large language models, o grandes modelos de lenguaje) tienen muchos aspectos de los cuales no entendemos con total certeza como se producen ciertos resultados.
Ha sucedido anteriormente qué modelos de GPT han ‘obtenido’ habilidades durante el proceso de entrenamiento para las que no estaban originalmente programados.
Sumado a esto, este tipo de modelos no funcionan como un software tradicional en el cual se puede hacer un trazado o seguimiento detallado para identificar de donde vino X resultado, sino que al funcionar como redes neuronales muy complejas, es muy difícil argumentar por qué se produjo un resultado en vez de otro.
Todavía falta mucha investigación al respecto para entender esto a profundidad. Si te interesa y quieres saber con más detalle sobre las multiples técnicas para entender en mayor profundidad como funcionan las AI, y como se está investigando para alinear sus valores a los nuestros, este blog post de Anthropic es un gran comienzo.
Podríamos decir que estamos en un consenso de que sabemos (muy) poco sobre como funcionan estas AI, y como alinear correctamente sus objetivos con los nuestros, y por lo tanto, quizás no es muy sabio continuar entrenando modelos cada vez más y más inteligentes.
Algunos investigadores como Yann LeCun (Chief AI Scientist en Meta) o Gary Marcus (Autor e investigador en la rama de AI y ML) creen que los sistemas LLM de predicción de palabras (Como GPT) están llegando a su límite, y hemos llegado a una pared en la que tenemos que repensar como estamos programando estos modelos. Por otro lado, muchos otros famosos investigadores no opinan lo mismo.
Personalmente, yo pienso que si bien los modelos LLM actuales de predicción de palabras no son infalibles (sobre todo por la alta cantidad de alucinaciones que presentan), hay multiples razones que me hacen pensar que todavía tienen bastante camino por delante. Considero que la razón principal por la que los rechazamos es por qué son categóricamente distintos a como nosotros (como humanos) aparentemente pensamos, pero no opino que eso sea necesariamente malo.
La realidad es que nadie sabe con certeza cuál es el camino correcto (y seguro) hacia la AGI.
Lo que si sabemos con certeza es que el desarrollo de modelos más y más capaces de AI está siendo predominantemente controlado por empresas privadas, y esto no es necesariamente bueno.
En el reporte AI Index 2023 presentado por los investigadores de Stanford, se concluye que gran parte de los avances más significativos en LLMs están siendo controlados por grandes corporaciones. Desafortunadamente, eso ya lo sabíamos.
Aparentemente, con el transcurso de los años empresas como OpenAI son cada vez menos identificables por la palabra «Open», y en su lugar son cada vez más identificables únicamente por la palabra «AI». Este fenómeno no es exclusivo de OpenAI, sino que muchas empresas que originalmente considerábamos como “abiertas” están siguiendo el mismo camino.
No necesariamente creo que tengamos que culpar a Sam Altman, Greg Brockman o Ilya Sutskever (los actuales ejecutivos principales de OpenAI). Genuinamente, creo que son personas con buenas intenciones que van mucho más allá de acumular riqueza o poder, pero también creo que simplemente el mercado no está diseñado para que empresas abiertas puedan prosperar de tal manera y con tal velocidad como lo han hecho ellos. También creo que aunque suene ingenuo, hay cierta verdad en los argumentos que mencionan para explicar el porqué cada vez hay menos apertura en sus papers.
Para concluir este punto, quiero dejarte con dos ideas:
La carta fue firmada por leyendas de la industria como Max Tegmark (probablemente uno de los científicos vivos más inteligentes del planeta), Yuval Noah Harari (Famoso historiador, filosofo y escritor de Sapiens, Homo Deus, y más), Steve Wozniak (Cofundador de Apple), Emad Mosque (CEO de Stability AI), entre muchas, muuuuuuuuchas personas más.
Lo más impresionante es que una gran parte de las personas que firmaron esta carta son investigadores y científicos que trabajan en desarrollo de AI, entonces entienden que estamos experimentando con algo que realmente no entendemos, y los peligros que puede conllevar eso son enormes.
Un gran tweet de Paul Graham (fundador de YCombinator y leyenda de Silicon Valley) publicado el 1 de Abril concluye este punto de manera perfecta:
“Una diferencia entre la preocupación por la inteligencia artificial y la preocupación por otros tipos de tecnologías (como la energía nuclear o las vacunas) es que, en promedio, las personas que la comprenden bien se preocupan más que las que no la comprenden. Esa diferencia merece nuestra atención”
¿Después de todo el contexto, cuáles son los potenciales escenarios altamente negativos? Desde mi punto de vista, los siguientes.
En un ensayo publicado en el New York Times el 24 de Marzo del 2023, Yuval Noah Harari menciona una frase que no ha dejado de dar vueltas en mi cabeza desde hace unos días: Perdimos la primera batalla contra la inteligencia artificial.
Las redes sociales que se popularizaron en la última década (Facebook, Instagram, TikTok), fueron quizás el primer producto de adopción masiva que hace uso de inteligencia artificial.
Estas redes utilizan algoritmos de AI para determinar qué contenido se muestra a cada uno de los miembros de la red, optimizando para maximizar el uso de la red social, con la intención de incrementar la cantidad de anuncios vistos, empujando el crecimiento de la plataforma a costa de la adicción de los usuarios. Facebook comenzó esta carrera y después siguieron muchas otras empresas empleando el mismo modelo.
¿En qué nos terminó afectando? Es perfectamente posible argumentar que redes como Instagram han incrementado nuestros niveles de ansiedad y depresión al constantemente incitarnos a comparar nuestra realidad contra las millones de vidas aparentemente perfectas de los demás usuarios de la red.
En 2020, la cantidad de personas reportando ansiedad y depresión en Estados Unidos llego a un record histórico. ¿Esto es únicamente atribuible a las redes sociales? No, hay otros factores también. Pero muchos otros estudios muestran una directa relación entre las redes sociales y nuestro estado de ánimo. Cualquier persona que haya desinstalado todas las redes sociales por 1 mes probablemente ha llegado a esta misma conclusion de manera empírica.
Así mismo, el fuerte enfoque en contenido corto y sobre-estimulante, más las constantes distracciones de las redes sociales intentando mantenernos adictos a la plataforma, ha reducido nuestra capacidad de atención de manera radical.
Este nivel extremo de personalización enfocada a volvernos adictos a las redes sociales no sería posible sin algoritmos de inteligencia artificial.
No quiero decir que las redes sociales sean totalmente malas, ni quiero volverme un detractor de la tecnología. Hay muchos beneficios que nos han traído también, y probablemente no estarías leyendo este artículo si no lo hubieras encontrado en Facebook, Twitter, Instagram o LinkedIn, pero personalmente creo que en la gran mayoría de los casos, las ventajas no compensan a las desventajas.
Este es un excelente ejemplo de cómo la inteligencia artificial puede afectar a una gran parte de la sociedad, mientras a su vez beneficia inmensurablemente a un pequeño grupo de individuos (en este caso, los ejecutivos en los headquarters de Meta/Facebook).
Los modelos de AI que tenemos disponibles ahora son radicalmente más capaces que aquellos que nos volvieron originalmente adictos a las redes sociales, por lo tanto, la pregunta clave es, ¿de qué manera la AI puede amplificar esfuerzos malintencionados que nos afecten como sociedad? Considero que es algo que debemos preguntarnos constantemente.
No necesariamente tenemos que desarrollar un AGI super inteligente que posteriormente decida ponerse en nuestra contra y acabar con la sociedad para que la inteligencia artificial sea peligrosa. Con los modelos que tenemos hoy hay cientos de usos potenciales que nos pueden impactan negativamente.
Los riesgos de la AI están ahi, independientemente de que desarrollemos AGI o no, y es muy importante no olvidar eso.
Finalmente, llegamos al escenario negativo más aterrador. Aquí es donde probablemente pienses: “Ese tal Mauro Sicard parece que ha visto demasiadas películas de ciencia ficción”.
Toda mi vida he sido un maximalista de la tecnología, o en otras palabras, una persona que cree que la tecnología es la solución a todos los problemas, pero creo que estaba equivocado y aquí he dado un paso atrás.
Desarrollar una AGI con inteligencia artificial superior a la humana puede ser potencialmente muy peligroso, aunque algunos de los laboratorios de AI actuales estén intentando comunicarnos que el riesgo es marginal o más pequeño al que nos imaginamos.
No necesariamente el AGI tiene que tener como objetivo el destruir a la humanidad, simplemente basta con que sus intenciones estén alineadas de manera diferente a las nuestras.
Te comparto tres argumentos aislados sobre por qué desde mi punto de vista esto es tan evidente.
Argumento 1: Comúnmente vemos a laboratorios de AI haciendo afirmaciones como “Nos aseguraremos de que las AI estén desarrolladas con valores fundamentalmente alineados a nuestros valores humanos”, y si bien hasta cierto punto creo que esto es plausible, una vez que alcancemos AGI con inteligencia superior a la nuestra, esto deja de tener sentido.
Ilya Sutskever, Chief Scientist de OpenAI e investigador altamente reconocido en la rama del machine learning, recientemente dijo en una entrevista lo siguiente:
“No subestimaría la dificultad de alinear modelos que en realidad son más inteligentes que nosotros”
Opino que es lógico — Desde mi perspectiva, sería muy tonto pensar que fácilmente podemos gobernar AI más inteligentes que nosotros y hacerlo satisfactoriamente.
Incluso la evidencia experimental nos dice lo contrario: De todos los animales que hay en la tierra (los cuales tienen un nivel de inteligencia menor al nuestro), ¿cuál de ellos tiene la capacidad de controlarnos? Ninguno.
No creo que sea imposible gobernar a un ser intelectualmente superior, solo que creo que es un objetivo supremamente ambicioso, y no debemos tomarlo a la ligera.
Argumento 2: Creo que existen capacidades intelectuales de las cuales no estamos al tanto, y probablemente una AI super inteligente pueda desarrollarlas. Esto lo veo como un nivel mental categóricamente superior, que probablemente lleve consigo objetivos o intenciones que no podemos comprender.
Esto suena un tanto filosófico, pero podemos verlo en animales. La hormiga más inteligente del mundo no puede ser capaz de entender matemáticas o física, por lo tanto, aunque haga su mejor esfuerzo, eso simplemente está fuera de su capacidad cognitiva.
Así mismo, a pesar de ser un tema aún debatido, algunos estudios sugieren que animales invertebrados como los insectos o los crustáceos no tienen conciencia (a pesar de tener actividad cerebral), posiblemente denotando un nivel categóricamente inferior de inteligencia.
Quizás en un modelo AGI super inteligente veamos nacer capacidades que están por encima de nuestra imaginación, y eso sea fundamentalmente algo que nos ponga en desventaja.
Argumento 3: Otro argumento muy sonado explica que como humanos, estamos programando la inteligencia artificial para hacer lo que pedimos, no necesariamente lo que queremos.
A esto comúnmente lo llamamos supercoherecia y básicamente representa la idea de que si un modelo AGI super inteligente no preserva en su intelecto la incoherencia humana que nos identifica (naturalmente los humanos somos muy incoherentes), sería casi imposible que nuestros objetivos se alineasen.
Si pedimos a un modelo AGI super inteligente que resuelva el cambio climático, fácilmente podría concluir que la manera más sencilla de resolverlo es aniquilando a la humanidad y esperando a que el ecosistema se recupere poco a poco.
Algo que me suena un tanto ingenuo es cuando escucho a detractores de modelos LLM como GPT argumentando cosas como ”No es inteligente, le pregunte algo y se equivocó”, de alguna manera asumiendo que nosotros como humanos nunca nos hemos equivocado (¿?).
Muy probablemente no queremos un AGI que sea supercoherente, por qué eso choca radicalmente con nuestro modo de pensar y actuar. Por el contrario, queremos un AGI que sea suficientemente avanzado para evolucionar su cognición, sin sufrir las desventajas de la supercoherencia.
————————————————————————————
Desafortunadamente, no parece que vayamos a desacelerar en nuestra búsqueda de desarrollar AGI.
Los emprendedores y los inversionistas son quizás las personas menos pacientes en la tierra. El mantra de Facebook desde sus inicios siempre fue Move fast and break things, y toda la cultura de Silicon Valley sigue esa misma ideología. Pero, ¿a caso queremos apresurarnos a hacer algo que podría ser el fin de la humanidad?
Para llevar a cabo acciones importantes se requiere de análisis y sabiduría. No estamos desarrollando una app para aplicar filtros a nuestras fotos de Instagram, donde si algo sale mal simplemente lanzamos un parche v1.1 y arreglamos los bugs, estamos hablando de quizás el suceso más relevante de la humanidad, así que debemos enfrentarlo con cautela.
En 2022, una encuesta sobre el progreso de la AI mostró que al rededor del 50% de los investigadores en machine learning dijeron que creen que hay aproximadamente un 10% de probabilidad que el trabajo en AI dé como resultado un evento catastrófico como la extinción humana — ¿Por qué seguimos desarrollando AI entonces?
Lamentablemente, la gran mayoría de las empresas tienen grandes incentivos para apresurarse lo más posible, y es difícil que eso pare.
No todo es malo. Si bien las potenciales consecuencias negativas de la inteligencia artificial pueden ser enormes, también hay escenarios muy positivos, y esos son en gran parte por los que muchos investigadores siguen haciendo un esfuerzo por continuar el desarrollo.
Según mi criterio, algunos de estos escenarios son los siguientes:
Con ayuda de la inteligencia artificial, podemos acelerar el progreso tecnológico y científico a un ritmo nunca antes visto, y potencialmente descubrir las grandes incógnitas de nuestra era.
Desde quizás poder desarrollar una teoría del todo que unifique las cuatro fuerzas fundamentales de la naturaleza: la gravedad, la fuerza electromagnética, la fuerza nuclear fuerte y la fuerza nuclear débil, hasta desarrollar nuevos sistemas mucho más eficientes para generar energía a una magnitud sin precedentes.
Es difícil predecir que avances tecnológicos y científicos podríamos ver, pero es claro que si desarrollamos un modelo AGI super inteligente que está efectivamente alineado a nuestros objetivos, la velocidad del progreso llegara a un nivel sin precedentes en la historia humana.
En 2018, DeepMind (propiedad de Google) lanzo AlphaFold, una inteligencia artificial enfocada en predecir la estructura de proteínas desconocidas con una precision sin igual. Posteriormente, en 2020, se lanzó una version mejorada de AlphaFold, la cual pudo predecir la estructura de más de 350,000 proteínas, con un nivel de precision comparable a la de los experimentos de rayos X y de criomicroscopía electrónica.
Si desarrollamos con éxito un modelo AGI super inteligente, es probable que estos logros se vean como algo minúsculo en comparación a los avances que podemos impulsar en la salud y la biología.
Cuando entrevistadores hacen preguntas a investigadores de AI y ML, constantemente vemos a los investigadores responder que esto probablemente nos podría permitir alcanzar grandes hitos de la biología como detener el envejecimiento, comprender grandes misterios sobre nuestro cuerpo, descubrir a profundidad como funciona nuestro cerebro, e incluso satisfactoriamente modificarnos biológicamente para dar el siguiente paso ’evolutivo’ mezclando la biología, la ciencia y la tecnología.
Si llegamos a un punto en el cual un ejército de AGI super inteligentes se encargan por nosotros de operar el mundo, podemos pensar en un futuro utópico en el que todos los seres humanos tienen las necesidades básicas cubiertas, y alcanzamos un nivel de abundancia nunca antes visto.
Es importante dejar claro que con esta predicción no intento decir que el sistema capitalista tendría que llegar a su fin, sino que probablemente seguiríamos viendo niveles inmensurables de acumulación de riqueza y desigualdad, pero con un nivel de abundancia tan grande que podríamos darnos la libertad como sociedad de que todos tuvieran un UBI (Universal Basic Income) lo suficientemente alto como para poder disfrutar de la vida con libertad, sin tener preocupación por necesidades materiales.
Como un buen amigo me comento después de leer un borrador de este artículo, esto no necesariamente daría como resultado que viésemos aumentar los niveles promedio de felicidad en la sociedad. Los humanos no solo vivimos para consumir, realmente necesitamos un objetivo para encontrar valor y significado a nuestra vida.
Aun así, creo que hay un lado positivo en asegurarnos que todo el mundo tenga acceso a las necesidades básicas.
Considero que esta predicción es quizás la más improbable de todas, ya que desde mi punto de vista hay emociones fundamentalmente humanas que nos alejan de esta realidad, haciéndola quizás la predicción más optimista e irrealista de la lista.
————————————————————————————
Finalmente, con tantos escenarios posibles, ¿vale la pena continuar el desarrollo de la inteligencia artificial?
Si personalmente tengo que dar una respuesta, diría que mi respuesta corta es no, y mi respuesta larga sería que no hasta que encontremos una manera segura de hacerlo, y lo hayamos analizado adecuadamente como para que valga la pena el riesgo que estamos tomando.
Si te dicen que tienes la oportunidad de apretar un botón mágico en el cual el 90% de las instancias en las que lo aprietas generas espontáneamente una realidad con gran abundancia y libertad para todos, pero el 10% de las veces mueres súbitamente, ¿lo apretarías? Creo que yo no.
Esa es una analogía de la situación en la que estamos, solo que en la situación real no tenemos ninguna claridad de cuáles son esos dos porcentajes (Perfectamente podrían ser 50% y 50%).
Lo triste de todo esto es que esta decision no es nuestra. Es muy probable que como sociedad no dejemos de entrenar modelos cada vez más y más complejos, casi que sin importar cuáles sean los resultados a corto, mediano o largo plazo.
Muchos investigadores están alzando la voz para que el gobierno intervenga y prohiba o regule el desarrollo de estos modelos, aunque sinceramente, hay un claro historial de antecedentes que nos muestran que el gobierno tiende a no avanzar lo suficientemente rápido para entender —mucho menos regular o controlar— tecnologías de este tipo.
Creo que el único escenario donde el gobierno interviene dando como resultado en que estas tecnologías se prohiben o se regulan de manera súbita es que ocurra un evento lo suficientemente catastrófico (pero insuficientemente letal) para llevar a su atención y la atención de la sociedad el nivel de peligro al que nos estamos enfrentando.
Podemos ver que en 1945 hubo un evento parecido en la Segunda Guerra Mundial, cuando Estados Unidos lanzo dos bombas atómicas en Hiroshima y Nagasaki, ocasionando qué gran parte del mundo se diera cuenta de la necesidad de controlar y limitar el uso de armas nucleares. La gran mayoría de los países siguen teniendo muchas armas nucleares (aún más que antes), pero es más evidente que nunca qué hacer uso de ellas potencialmente significaría la extinción humana.
Salvo un evento así suceda, creo que es muy improbable pensar que nos detendremos. Y no quiere decir que no podamos detenernos, claro que podemos, de hecho en el pasado hemos fuertemente desacelerado o directamente detenido muchos avances tecnológicos en ramas de la ciencia y tecnología que consideramos no éticas (como armas biológicas, modificación genética, clonación humana, etc).
Lo que quiero decir es que aparentemente ese no será el caso, por lo tanto, dentro de lo posible, vale la pena estar preparado, y de eso hablaremos en el segmento final de este artículo.
Este segmento es tristemente el más corto de este artículo, por qué predecir como prepararse para un futuro muy incierto es indudablemente muy complicado, pero he reflexionado sobre esto por meses, leído artículos, libros, publicaciones científicas, y estas son mis conclusiones.
Al igual que en el segmento dos, vale la pena mencionar que las siguientes recomendaciones son totalmente expuestas desde mi análisis e interpretación, y probablemente estarán equivocadas. Vale la pena que leas multiples perspectivas y reflexiones intencionalmente sobre cuáles son tus conclusiones.
Hemos visto una adopción masiva de todas las herramientas de inteligencia artificial desde su lanzamiento.
ChatGPT, el modelo de OpenAI basado en GPT-3.5 y calibrado para estar enfocado en conversaciones, llego a 100 millones de usuarios mensuales activos en tan solo 2 meses, contra 9 meses que tardo TikTok o 30 meses que tardo Instagram.
Por lo tanto, cuando escucho el argumento “Estás en la burbuja tech, no deberías preocuparte tanto por lo que tardaran estas tecnologías en obtener adopción masiva”, sinceramente no concuerdo del todo. Entiendo el sentimiento de donde viene esa opinion, pero creo que puede ser peligrosa.
Sí, es verdad que hay negocios locales que aún llevan su registro de clientes en hojas de papel a pesar de que la primera version de Excel fue lanzada en 1985, pero también es verdad que muchos de esos negocios probablemente no sobrevivirán el futuro que se aproxima, entonces justificarse en la obsolencia, ignorancia o negligencia de algunos para no adoptar o aspirar al progreso y la innovación, es desde mi punto de vista, equivocado.
En el corto plazo (los siguientes 2-3 años) creo que lo que sucederá será básicamente lo que describe la famosa frase: No serás reemplazado por la inteligencia artificial, sino por un humano que usa la inteligencia artificial.
Veremos una adopción masiva de estas tecnologías, por lo tanto, si aún no estás adoptándolas para mejorar tu desarrollo personal y tu proceso de trabajo, yo recomendaría hacerlo ya (!).
Si aún no has probado algunas de las herramientas que mencione arriba, te invito a hacerlo por algunas horas hoy, mañana, o este fin de semana. Es quizás una de las cosas más relevantes por hacer en este momento.
Yo personalmente me encuentro 4 - 6 horas diarias leyendo, probando y aprendiendo al respecto, y creo que es por mucho lo más importante en lo que estoy invirtiendo mi tiempo ahora mismo.
Creo que esto funcionara muy efectivamente en el corto plazo, pero para el mediano y largo plazo vamos a necesitar una estrategia muy diferente, y según lo que he reflexionado, es la siguiente:
Es casi un hecho que en los siguientes 2-3 años veremos muchísimos trabajos automatizarse, degradarse, o directamente perder mucho valor como resultado de que la oferta sea inmensamente mayor a la demanda.
Dependiendo del nivel de experiencia y expertise de cada rol, al igual que de la complejidad de cada trabajo e industria específica, algunos trabajos pueden resultar totalmente afectados (automatización total), degradados (reducción salarial, dificultad para encontrar nuevas oportunidades por sobreoferta, etc), o mínimamente impactados (necesidad de aprender nuevas habilidades, pero conservando en gran medida la demanda y estabilidad del pasado).
Si tuviera que organizarlo en tres diferentes clasificaciones, serían las siguientes:
Además de estas 3 clasificaciones, probablemente hay una cuarta (4) clasificación de trabajos que están seguros como consecuencia de ser trabajos que requieren de habilidades físicas que están considerablemente más lejos de ser automatizadas (al menos hasta que el costo de desarrollar y producir robots baje drásticamente). En esta clasificación vemos cosas como:
Constructores, arquitectos (en-sitio), plomeros, asistentes de limpieza, chefs y cocineros, ingenieros eléctricos, etc.
Desde mi punto de vista, si tu trabajo está en la clasificación (1), probablemente debes actuar de inmediato. Si tu trabajo está en la clasificación (2), quizás deberías estar muy preocupado y prepararte debería ser tu prioridad principal. Si estás en la clasificación (3) o (4), probablemente estás seguro en el mediano plazo, pero vale la pena seguir de cerca todo esto para tomar ventaja y evitar estar en riesgo.
Cabe mencionar que no quiero dar la impresión de que no vayan a surgir nuevos empleos como resultado de la eliminación masiva de muchos otros, pero el punto clave aquí es que muchos de esos serán empleos de un nivel técnico mucho más alto, por qué la AI podrá eficientemente desempeñar la gran parte o el total de los empleos de bajo nivel de complejidad.
En revoluciones industriales del pasado, vimos cómo personas tuvieron que pasar de un trabajo a otro, pero comúnmente hablábamos de un trabajo de entrada a otro trabajo de entrada (Por ejemplo, alguien que trabajaba en la industria de la agricultura y fue desplazado por la automatización, quizás cambio a un trabajo de cajero en un supermercado), mientras que el futuro al que actualmente nos enfrentamos pinta más a que obligara a las personas a tener que pasar de un trabajo de bajo nivel de complejidad, a uno sumamente alto, y esto probablemente no será una posibilidad para todas las personas.
Una vez dejando esto claro, ejemplifiquemos como esto podría aplicar a mi propio trabajo, al que yo consideraría está en la clasificación (2):
En Abril del 2023, mi trabajo principal del día a día es manejar las operaciones de BRIX Agency (Una agencia de diseño y desarrollo web) y BRIX Templates (Una empresa desarrolladora de templates para el CMS Webflow). Trabajo en algunos otros proyectos, pero al menos el 75% de mi tiempo está invertido en estos dos.
En retrospectiva, creo que tome la decisión adecuada al decidir fundar una agencia de diseño web en 2015 — Había un gran mercado, la industria del diseño web estaba en uno de sus mejores momentos, y claramente la demanda era mayor a la oferta.
Mirando hacia el futuro, esto muy probablemente dejara de ser así. A diferencia del presente o el pasado, herramientas de diseño generativo AI como Diagram reducirán radicalmente la barrera de entrada a hacer diseño web o diseño UI, resultando en mucho mayor oferta que demanda. Algunas otras como Stable Diffusion serán entrenadas en modelos enfocados para web y UI, reduciendo drásticamente el tiempo requerido para el proceso — y como Adam Smith explico en su famosa obra La riqueza de las naciones, los precios de los bienes y servicios bajaran radicalmente como resultado de esto.
Muy probablemente lo mismo pasara para una gran cantidad de agencias ofreciendo servicios de desarrollo (otra gran rama de lo que hacemos en BRIX en el día a día). Herramientas como GPT-4 o GitHub Copilot ya hacen el proceso de programar increíblemente más rápido y sorprendentemente más fácil debido a la capacidad de trabajar en conjunto con la AI para entender conceptos complejos, explicar código, escribir funciones, etc.
Agregado a esto, he visto y escuchado de algunos productos que aspiran a automatizar gran parte de este proceso, pero aún no son públicos (entonces, lamentablemente, no puedo compartir mucha información), y he de decir que en general estoy muy sorprendido.
Tras casi 10 años de trabajar en esta industria, me parece que todos los que nos encontramos en este ámbito estamos a punto de afrontar el mayor desafío que se nos ha presentado.
Para muchos quizás quedarse sea la decision más fácil (a pesar de las implicaciones que eso conlleve en el futuro), pero al menos en mi caso, creo que es más sabio cambiar de camino.
Esto es muy duro de leer y de aceptar, pero vale la pena hacerlo y enfocarse en evolucionar, en vez de negarse o decidir ignorar la situación.
En el pasado me han dicho que quizás la manera en la que escribo puede malinterpretarse, y un lector podría entenderme como alguien un tanto cínico o desinteresado, por lo tanto, quiero dejar claro que yo no quiero que todo esto suceda, pero independientemente de mis preferencias personales, creo que es muy probable que va a suceder, así que mi único objetivo aquí es hacer mi aporte y compartir conocimiento para que todos estemos tan preparados como sea posible.
En las propias palabras de Sam Altman, CEO de OpenAi:
“Pronto, las herramientas de AI harán lo que solo los humanos muy talentosos pueden hacer hoy en día. (Esto sucederá principalmente en el orden contrario a lo intuitivo: primero en campos creativos, luego en trabajos cognitivos y, por último, en trabajos físicos).
Genial para la sociedad; no siempre genial para los trabajos individuales”
Ahora la gran pregunta es, si nos dirigimos a un mundo en el que gran parte de las tareas creativas serán fácilmente automatizadas y básicamente serán comoditizadas (bajaran su valor), ¿en qué debo enfocarme?
Esa es la gran pregunta que me he hecho todos los días, que he discutido con amigos, colegas de trabajo, familiares, etc, y mi hipótesis es la siguiente.
Es increíblemente difícil saber qué nuevos trabajos aparecerán en el futuro en la era de la AI. Si alguien le hubiera dicho a tu abuelo o abuela que en el futuro habría gente jugando videojuegos en vivo ante una cámara y ganando millones por ello (aka a los que hoy llamamos streamers), probablemente lo hubieran tomado como una locura total.
Entonces, intentar predecir que pasara es muy difícil, pero lo que si es posible es desarrollar una serie de habilidades que probablemente encajen con un amplio espectro de los posibles futuros.
En mi caso, si bien toda la vida me enfoque en aprender conocimiento práctico (Como optimizar el SEO de un sitio, como integrar dos herramientas entre sí, como construir un sitio web siguiendo las últimas tendencias del diseño, etc), hoy en día creo que la manera más segura de afrontarse al futuro es desarrollar conocimiento profundamente fundamental y básico.
Volver a las raíces, a comprender los conceptos originales, para sí poder aplicar ese conocimiento a prácticamente cualquier cosa.
Te comparto un ejemplo:
Más arriba en el artículo te mencioné Midjourney, la que es probablemente la mejor AI de generación de imágenes hasta este momento (Abril 2023, ya que con los avances acelerados en los que vivimos, esto puede cambiar en meses o incluso días).
Esta AI ha estado evolucionando muy muy rápido, al grado que ha tenido cinco grandes releases (v1, v2, v3, v4, v5) en tan solo un año, por lo tanto, dedicarte a tomar un curso a fondo para memorizar los mejores prompts de Midjourney v5 probablemente no sea el mejor uso de tu tiempo.
Quizás para cuando termines el curso, Midjourney v6 habra salido y como comúnmente el sistema de prompts cambia entre versiones (resultado del cambio de dataset y parámetros de entrenamiento), probablemente la utilidad de lo que hayas memorizado se haya esfumado.
Suena a una situación hipotética, pero dos días antes de haber salido Midjourney v5 hubo un lanzamiento de set de prompts para Midjourney v4, pero como el sistema de prompts cambio considerablemente, este set de prompts perdió gran parte de (o toda) su utilidad.
El punto de este ejemplo es que no tiene sentido memorizar o aprender únicamente información práctica que tendrá un grado de temporalidad muy corto, por el contrario, tienes que aprender las fundaciones más básicas:
Como funciona el prompt, por qué el orden de las palabras influye el resultado, por qué otras palabras pueden tener mucho más peso en el resultado final, que está sucediendo detrás mientras solicitas un prompt, etc.
Si comparamos la década de 1900 a 1910 contra la década del 2010 al 2020, la gran mayoría de los expertos estarían de acuerdo en que la velocidad del progreso tecnológico y científico en 2010 - 2020 fue radicalmente mayor. Esto se debe en gran parte al rápido avance de la tecnología de la información, la digitalización y la automatización, así como a las mejoras en la globalización y tecnología de la comunicación.
Pues tenemos que estar preparados, por qué la velocidad del progreso que viene en las siguientes décadas será aún mayor, y no ligeramente mayor, sino extremadamente mayor.
Por lo tanto, desde mi punto de vista, enfocarnos en volver a las raíces y sumergirnos en conocimiento profundamente fundamental, es quizás una de las estrategias más seguras.
Agregado a eso, desarrollar la capacidad de aprender a una velocidad excepcional será presumiblemente más importante que previamente ser un experto en cuál sea el área que se está trabajando.
Pongamos otro ejemplo:
Imaginemos la vida en 2040, en donde hipotéticamente cada 2 años cambia totalmente el lenguaje de programación que todos utilizan en la industria. ¿Quién podrá destacar más en ese ecosistema?
A. La persona A que tiene 20 años de experiencia, pero le tomo 10 años volverse un experto en ese lenguaje.
B. La persona B que tiene 2 años de experiencia, pero solo le tomo 6 meses volverse un experto en ese lenguaje.
En una sociedad siempre cambiante, creo que primara la velocidad de aprendizaje y des-aprendizaje sobre la experiencia previa.
Creo que muchos no tendrán el interés, o tristemente aún peor, la capacidad, para estar en ese constante cambio. Para una persona de 50 años que ya tuvo que aprender y desaprender ciertas habilidades, quizás más de una docena de veces, probablemente no le queden ganas de continuar haciéndolo, pero creo que probablemente es al mundo al que nos dirigimos.
Entonces, si quieres una resumen más corto y específica, de que debes aprender para estar preparado para el futuro, en mi criterio sería:
Aprende conocimiento básico y fundacional de la manera más profunda que puedas, y desarrolla la habilidad de sentirte cómodo de aprender y desaprender —muy— rápidamente.
Si te sirve, yo hoy en día me encuentro aprendiendo principalmente sobre lógica, matemáticas, física, modelos mentales, filosofía, teoría de juegos, neurobiologia, entre otras cosas más. Creo que ese es el conocimiento que tengo que aprender para estar preparado para el mañana.
Estamos viviendo en un momento único en la historia de la humanidad, y personalmente, tengo una fuerte mezcla de sentimientos entre emoción y miedo.
La tecnología siempre ha sido mi pasión, entonces ver y utilizar estas nuevas tecnologías y herramientas que son más poderosas que nunca, me emociona y me divierte, pero al mismo tiempo, me dan mucho miedo las implicaciones negativas que pueden tener en el futuro.
También creo que es posible pensar en que quizás estemos sobreestimando nuestras capacidades de desarrollar AGI en el futuro cercano, y toda esta serie de especulaciones y preocupaciones están sucediendo en vano. Ojalá ese sea el caso, pero creo que con el progreso tan acelerado que estamos experimentando, no creo que apostar por esta opción sea lo mas seguro.
Podríamos simplemente ignorarlo y actuar como si nada fuese a pasar, pero al menos en mi caso personal, ese no es mi estilo. Como dice una de mis frases favoritas: “Decisiones difíciles, vida fácil. Decisiones fáciles, vida difícil”.
Agregado a eso, creo firmemente que mi responsabilidad y accountability para intentar descifrar lo que viene y estar preparado para el futuro no termina en mí, sino en mi equipo.
Si eres parte de BRIX Agency o BRIX Templates, no te preocupes, tu trabajo está seguro. Afortunadamente, hemos tomado las decisiones adecuadas y financieramente estamos en un punto muy saludable, a pesar del fuerte decrecimiento económico reciente resultante de todos los despidos masivos en SV y la gran incertidumbre por temas como lo sucedido con SVB. Aún más importante, créeme que uno de los puntos más altos en mi lista de prioridades es que eso se mantenga así.
En todo este proceso de cambio, estoy emocionado de decir que estoy explorando multiples ideas en la rama de AI y muy probablemente presentare algo en los siguientes meses.
Y eso es todo — Si leíste hasta aquí, te invito a que por favor me escribas para compartirme tu opinion sobre todo este tema. Escuchar un amplio rango de perspectivas es especialmente util en este caso, entonces creo que puede ser muy fructífero para ambos.
Si me conoces personalmente, escríbeme por Messenger, WhatsApp o Twitter. Si no, no seas tímido/a, mi correo está abierto a tu mensaje en [email protected]