El estado de la IA: cómo hemos llegado hasta aquí (y qué está por venir)
![Una mujer y un robot se dan la mano frente a portales brillantes, simbolizando la colaboración en la tecnología del futuro.](https://www.salesforce.com/es/blog/wp-content/uploads/sites/13/2024/10/State-of-AI.jpg?w=300)
El director científico y el director de proyectos de futuro de Salesforce, que trabajan en el sector desde los inicios de la IA, hablan sobre su evolución y lo que podemos esperar.
La inteligencia artificial ha recorrido un largo camino desde sus inicios, evolucionando desde la ciencia ficción hasta convertirse en una poderosa fuerza que está transformando sectores en todo el mundo.
Para conocer más sobre esta situación, Itai Asseo habla con dos de los influyentes expertos de Salesforce que han participado en la configuración del estado de la IA desde sus inicios —el director científico Silvio Savarese y el director de proyectos de futuro Peter Schwartz— sobre cómo hemos llegado hasta aquí y qué futuro le depara a la inteligencia artificial (IA) a medida que continúa transformando la forma en que vivimos y trabajamos.
Transforme su CRM con información práctica basada en la IA.
Descubra cómo la IA mejora el CRM generando confianza, innovando los casos de uso y potenciando las habilidades. Lea nuestro informe para obtener información estratégica.
![](https://www.salesforce.com/es/blog/wp-content/uploads/sites/13/2024/12/Trends-in-AI-FormConf-OG-Image-2.png)
La IA no es ninguna novedad, pero ¿qué aspectos de ella han cambiado?
Asseo: Gracias a ambos por estar aquí para hablar de un tema que ha definido vuestras carreras. Peter, voy a empezar por usted. Le gusta recordarle a la gente que usted es el empleado más antiguo de Salesforce. Ha asistido a muchos ciclos de innovación a lo largo de su vida. La IA de por sí no es ninguna novedad y ya existe desde hace mucho tiempo. ¿Puede darnos un poco de perspectiva?
Schwartz: La realidad es que acabo de cumplir 78 años y llevo más de 50 dedicándome a tratar de concebir el futuro. Empecé mi carrera en un lugar llamado Stanford Research Institute, que era uno de los dos centros de investigación de IA que había en Estados Unidos. En ese momento estaban el SRI de Stanford y el MIT. Participé activamente en el debate sobre la IA que se inició a partir de 1972 y que, siendo sincero, fue un fracaso. Fue el comienzo del primer «invierno de la IA». (Con «invierno de la IA» nos referimos a un período en que se redujo la financiación y el interés por la IA)
La idea original en torno a la IA era comprender el cerebro humano, es decir su funcionamiento, y a partir de ahí construir modelos informáticos que lo simularan. Pero el problema de esa estrategia era que entender el cerebro resultó ser mucho más difícil de lo que cualquiera podía esperar. Eso condujo al primer invierno de la IA a finales de los años 70.
Luego hubo otra ola de interés con el nacimiento de la computación paralela. Un amigo mío muy querido, Danny Hillis, inventó la computación paralela y fue propietario de una empresa llamada Thinking Machines a mediados de los 80. Y, de hecho, tenía un eslogan en su puerta que era genial: «Quiero construir una máquina que esté orgullosa de mí». Bueno, pues su proyecto fracasó. Pero se dio cuenta de que necesitábamos una estrategia completamente diferente.
En la década de 1990 y a principios de la de 2000, la IA no tenía nada que ver con el modelo del cerebro. Ya no había un modelo cognitivo detrás de las matemáticas de la IA y eso abrió nuevas posibilidades que ahora nos permiten no estar constreñidos por los límites de lo que sabemos sobre el cerebro.
Asseo: Silvio, usted lleva muchos años al frente de la investigación en IA. ¿Puede ayudarnos a establecer una conexión entre la historia de la que Peter nos ha hablado y cómo hemos llegado al contexto actual?
Savarese: Comencé mi doctorado en el año 2000 durante uno de esos inviernos de la IA. Puede que fuera el séptimo o el octavo. En aquel entonces, la IA no era un tema atractivo. La tecnología no estaba lo suficientemente madura como para iniciar la producción. Fue un momento difícil. Sin embargo, también era fascinante y por eso quise estudiarla.
En ese momento, estábamos usando modelos bayesianos, que son poderosas herramientas estadísticas para la toma de decisiones. En cuanto a lo que ha dicho Peter, estas redes eran modelos basados en datos, y no intentaban imitar el cerebro ni inspirarse en su funcionamiento. Pero el problema de las redes basadas en datos es que requieren mucha ingeniería de características. Eso significa que hay que hacer mucho preprocesamiento para que los datos sean compatibles con el modelo. El modelo no podía absorber los datos sin más, por lo que había que preprocesarlos y, por lo tanto, el rendimiento no era muy bueno.
Pero avancemos hasta 2010, que fue el año en que empezamos a reutilizar las redes neuronales. Las redes neuronales fueron populares varias décadas antes, pero de repente, se volvieron mucho más interesantes porque podían procesar datos sin ninguna ingeniería de características. Podían usar los datos consumidos tal cual, sin preprocesamiento. Esto las hizo versátiles en muchos casos de uso diferentes. ¡Fue increíble ver cómo, de repente, el rendimiento se disparaba!
Avancemos una década más: estamos entrando en la era de los transformadores y los modelos de atención. Y aquí no solo no necesitamos ingeniería de características, sino que tampoco necesitamos anotaciones, lo que significa que pueden consumir miles de millones de tokens de datos. Por eso estos modelos acabaron siendo enormes y por eso los llamamos grandes modelos de lenguaje. Sin embargo, el comportamiento que observamos fue inesperado. Vimos que de repente podíamos hablar con los modelos en lenguaje natural: para hacer razonamientos y para generar contenido, texto, vídeos, imágenes e incluso planos. Y eso es lo que los hace tan apasionantes.
Asseo: ¿Cuál es el siguiente paso? ¿Hacia dónde vamos?
Savarese: El siguiente paso es lo que llamamos grandes modelos de acción, que es la evolución, en nuestra opinión, de los grandes modelos de lenguaje. Al entrenar estos modelos, pueden predecir y generar texto, y comprender cómo comportarse, cómo actuar y cómo usar estos comentarios del entorno para mejorar su rendimiento.
Schwartz: Desde la idea original de grandes modelos de acción hasta el lanzamiento actual de Agentforce, el espacio y el tiempo entre el concepto original y la capacidad de crear un producto comercial son asombrosos.
La IA está entrando en un formidable período de crecimiento
Asseo: De hecho, todo esto es gracias al increíble trabajo del equipo de investigación de IA de Salesforce, que ha escrito algunos de los artículos originales sobre el transformador que más tarde llevó a la creación de lo que todos conocemos ahora como Transformadores Generativos Preentrenados o GPT.
Hablemos del presente. En los últimos dos años, con todo el revuelo en torno a la IA generativa, ha habido una enorme cantidad de cambios. Hace apenas un año hablábamos de copilotos, ahora hablamos de agentes. Todo se está moviendo a una velocidad asombrosa y, tal vez por eso, hay también mucha incertidumbre. Peter, usted se enfrenta a estas incertidumbres todos los días como director de proyectos de futuro. ¿Qué comentan los líderes empresariales y los clientes?
Schwartz: Bueno, los responsables y las empresas se preguntan muchísimas cosas importantes: ¿Con qué rapidez se desarrollará la tecnología? ¿Con qué rapidez se implementarán correctamente las aplicaciones? ¿Cuáles serán las consecuencias? ¿Cuáles son las normativas que están por llegar para ayudar a gestionar el uso de la IA?
Esta mañana estuve con el director de un gran banco. Están entusiasmados con la situación actual, pero tienen que ser muy cuidadosos a la hora de conseguir la aprobación de los organismos reguladores antes de poder hacer casi cualquier cosa con la IA.
Ayer escuché que el director de una empresa sanitaria decía lo mismo. Tienen que ser muy cuidadosos por lo que pueda ocurrir en el ámbito normativo, sobre todo en lo referente a los datos de los pacientes. Y eso es solo una parte. Por lo tanto, hay varias hipótesis sobre como podría seguir desarrollándose la situación.
Las normativas sobre la información personal identificable (IPI) podrían desarrollarse muy rápidamente y sin problemas en el futuro, pero también podría ser que nos enfrentásemos a una desaceleración en las implementaciones de la IA. A medida que se van probando cosas nuevas, algunas de ellas funcionan y otras no. Se trata de un ciclo de producto clásico, y esa es la crisis en el proceso de aprendizaje.
Hay literalmente miles de startups en este sector. La mayoría de ellas fracasarán. Pero algunos se convertirán en los gigantes de la próxima generación. Puede haber un Apple o un Google al acecho. Salesforce acaba de comprar una empresa dedicada al desarrollo de agentes de voz con IA llamada Tenyx. Y pronto se podrá hablar con la IA en Salesforce.
Creo que estas incertidumbres nos van a acompañar durante un tiempo. Hay un libro excelente llamado «Cointeligencia» de Ethan Mollick, que recomiendo encarecidamente. En él recomienda hacer una planificación de hipótesis para hacer frente a las muchas incertidumbres que supone la IA.
Asseo: Hay un dicho famoso que dice: «La mejor manera de predecir el futuro es crearlo». El grupo de investigación de IA de Salesforce está trabajando en muchísimas innovaciones. Por ejemplo, durante la presentación, Marc Benioff habló sobre el motor de razonamiento Atlas, que se inspiró en gran parte de ese trabajo. Silvio, ¿puede hablarnos de algunas de las tecnologías clave que surgen de nuestro grupo de investigación y que están informando e impulsando esa innovación para Agentforce?
Savarese: Permítame apartarme un poco y describir lo que realmente estamos desarrollando con Agentforce. Estamos creando dos tipos de sistemas autónomos. Uno se llama asistente de IA y al otro lo llamamos agentes de IA. Los asistentes de IA trabajarán en estrecha colaboración con los humanos y les ayudarán a realizar tareas diarias como escribir correos electrónicos, reservar citas, hacer reservas, etc.
Esto requiere un alto nivel de personalización, por lo que el asistente debe comprender cuáles son las preferencias del usuario y adaptarse a esas preferencias para realizar correctamente una tarea. En esta situación, un humano debe guiar al asistente (se denomina «participación humana») para ayudarle a realizar esas tareas.
Por otro lado, tenemos los agentes de IA, que se personalizan no solo para un usuario, sino para un grupo de usuarios o incluso para toda una empresa. Están especializados en habilidades específicas y se les asignan funciones específicas. Las empresas pueden introducirlos bajo demanda para ayudar en las tareas de ampliación y realizar actividades complejas.
De hecho, con Agentforce estamos incluimos ambos tipos de agentes. Lo que tienen en común todos estos agentes y asistentes son dos cosas: la memoria y el cerebro.
La memoria permite a estos asistentes y agentes recordar lo que sucedió antes, como las conversaciones, y también extraer información fundamental para realizar tareas, como información sobre productos, clientes, políticas o prácticas recomendadas. Todo esto enriquece a esos agentes con el tipo de conocimiento correcto. Y en colaboración con los equipos de ingeniería, también estamos desarrollando la próxima generación de un sistema [nuestro] denominado RAG, o generación aumentada por recuperación. Esto nos permite extraer información de los repositorios de manera efectiva y proporcionarla a los agentes.
El segundo componente importante es el cerebro, que es, dicho de forma más técnica, el motor de razonamiento. (El motor de razonamiento de Salesforce se fraguó en su equipo de investigación de IA). Se utiliza para descomponer una tarea en una serie de pasos que debe realizar un agente. Esto exige también que seamos capaces de recopilar feedback del entorno.
Asseo: En efecto, si pasamos de una IA que genera texto a una IA que pasa a la acción y permitimos una mayor autonomía, también existe la posibilidad de que esta traicione nuestra confianza. ¿Qué pasa si estos agentes hacen algo que no queremos que hagan o no tenemos la intención de que hagan, u ofenden a alguien, o algo incluso peor? ¿Cómo vamos a afrontar el tema de la confianza con esta tecnología de agentes?
Savarese: Lograr que estos agentes sean fiables es un problema sumamente complejo. Tenemos que asegurarnos de que lo que desarrollemos sea seguro para que los clientes lo utilicen. En cierto modo, estamos en una situación muy complicada. La IA generativa para los consumidores tiene muchos menos riesgos. Por ejemplo, si un agente le hace una recomendación incorrecta para reservar en un restaurante, es posible que usted se moleste, pero las consecuencias no irán mucho más allá. En cambio, en el caso de las empresas, si un agente ejecuta los planes de manera incorrecta, se podrían producir consecuencias realmente catastróficas.
Por ese motivo estamos construyendo una serie de medidas de seguridad que permiten a los agentes operar dentro de límites seguros y fiables. Y estas medidas de seguridad se diseñan aprovechando las prácticas recomendadas. Podemos incorporar medidas de seguridad y lógica de negocios en la forma en que se desarrollan estos agentes.
En este punto es importante contar con un proceso iterativo en el que podamos recopilar feedback de los usuarios y comprender las áreas en las que los agentes pueden mejorar. La transparencia también es muy importante aquí. Garantiza que esos agentes puedan desvelar y revelar a los usuarios lo que están tratando de hacer en algunos puntos de decisión fundamentales y en situaciones en las que existe un riesgo potencial que pueda ser perjudicial para la empresa.
Asseo: Eso es muy sutil, y me pregunto, Peter, ¿qué tipo de implicación tiene eso para la sociedad en cuanto a la confianza y la autonomía que estamos empezando a dar a estos agentes?
Schwartz: Creo que se trata de un cambio histórico. Estamos en un mundo nuevo. Y la verdad es que no podemos saber las cosas a ciencia cierta ya que, como hemos dicho, hay muchas incertidumbres. Pero lo que vamos a ver con seguridad son agentes de IA en todas partes, omnipresentes en muchos contextos diferentes. Ellos se encargarán de las cosas en segundo plano, para que no sea necesario pensar en eso. Y esa es la frase clave del funcionamiento: no hay que pensar en eso.
Ahora bien, la verdad es que, como ha dicho Silvio, todavía necesitamos la participación humana en esa interacción con la tecnología, y la seguiremos necesitando durante bastante tiempo. En una de las películas en cuyo guion colaboré, «Juegos de guerra», hay un momento cerca del final en el que Matthew Broderick está en la sala de guerra y los misiles soviéticos parecen estar pasando por encima del polo, y John Wood, el científico informático, señala la pantalla y dice: «¿No te das cuenta de que es una alucinación informática?»
En cierto modo, inventamos las alucinaciones informáticas en 1979 con esa película. Pero es una pista de lo que realmente tenemos que hacer. Fue un ser humano el que se dio cuenta de que se trataba de un juego y no de la realidad. Y creo que ese es el tipo de situaciones que nos vamos a encontrar con frecuencia, en las que necesitaremos la intervención humana durante bastante tiempo, para asegurarnos de que las acciones de los agentes coincidan con las intenciones humanas.
¿Cómo será el futuro de la IA?
Asseo: Bueno, nos acabas de llevar al futuro, Peter, que es nuestra sección final. Exploremos un poco este mundo en el que nos adentramos donde estos agentes autónomos van a ser omnipresentes y donde todos vamos a tener nuestros propios asistentes personales. Silvio, has trabajado mucho en el área de la robótica. ¿Cómo se va a materializar todo eso y cómo va a ser ese mundo cuando se combinen los agentes y la robótica?
Savarese: Como bien has ducho, durante muchos años de mi trayectoria en Stanford, estuve trabajando en el Laboratorio de Robótica, haciendo investigación en percepción robótica, que permite a los robots entender y ver el mundo. En aquel entonces, usábamos robots enormes con brazos grandes y les enseñábamos a hacer cosas como hacer una tortilla o un espresso. Y cuando echo la vista atrás y me fijo en esos primeros desafíos de investigación, me doy cuenta de que ahora nos enfrentamos a desafíos muy similares. Construir un robot y construir un agente son en realidad problemas muy similares.
Si piensa en un agente que reserva un viaje por usted, o en la construcción de un robot que hace una tortilla, en realidad son tareas muy similares. Ambos necesitan tener memoria, ya que tienen que recordar los ingredientes de la tortilla. Tienen que recordar dónde están las herramientas para hacer la tortilla. Igual que los agentes digitales tienen que recordar a qué sitios web acceder para hacer la reserva de un vuelo.
También necesitan un cerebro, porque el robot tiene que idear un plan para hacer la tortilla. Y por eso hay pasos y procedimientos. Y para reservar un viaje, el agente también tiene que idear una secuencia de pasos que le permita completar la reserva correctamente.
Una cosa importante que es común en ambos casos es el entorno, que puede ser adverso. Puede que se dé el caso de que el robot no encuentre los huevos o no pueda localizar el aceite o las sartenes. ¿Qué pasa entonces? No puede abandonar y fin, ¿verdad? Tiene que idear un plan B. Lo mismo ocurre si un agente está tratando de reservar un viaje y no puede encontrar los billetes o el vuelo correcto, ¿qué hacemos? Hay que idear un plan alternativo. Esta capacidad de adaptación a un entorno dinámico o incluso adverso es fundamental.
Lo que los robots y los agentes no tienen en común es el hecho de que el agente es digital y el robot es físico, lo que significa que tenemos que construir la capacidad adecuada utilizando sistemas sensoriales (visión, tacto, sonido) que allanarán el camino para las próximas generaciones de agentes.
Asseo: ¿Qué consejo le daría a los líderes empresariales y, en realidad, a cualquier persona que esté empezando a experimentar con la IA en el trabajo?
Schwartz: Que se ponga manos a la obra. Que cree un agente. Habría que empezar practicando con diferentes modelos. Comprueba lo que te funciona a ti y lo que funciona en las áreas en las que trabajas. Estamos en una fase tan inicial que la experimentación se ve ampliamente recompensada.
Savarese: Y no nos olvidemos de la confianza. No nos olvidemos de desarrollar estos agentes de una manera que sea segura. Quiero destacar dos aspectos importantes. Debemos asegurarnos de que haya transparencia para garantizar que quede claro qué cosas genera la IA y qué cosas generan los humanos. Debemos hacer distinciones claras en nuestras mentes y en las mentes de nuestros consumidores.
El segundo aspecto es la responsabilidad. Supongamos que los agentes de una de las partes van a tratar de hacer algo que puede entrar en conflicto con los agentes de la otra parte, ¿quién será responsable en caso de desacuerdo? ¿Cómo vamos a regular este tipo de supuestos? Esto es muy importante, ya que ese momento está a la vuelta de la esquina. Va a ser un problema que tendremos que afrontar muy pronto.
¿Alguna pregunta?
Nosotros le ayudamos
![](https://www.salesforce.com/es/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-illustration-layout-two.png)
![](https://www.salesforce.com/es/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-accent-layout-two.png)
![](https://www.salesforce.com/es/blog/wp-content/themes/salesforce-blog/dist/images/offer-block/offer-cloud-layout-two.png)