Si la cognición que queremos imitar en sistemas artificiales es encarnada, situada, extendida y enactiva, ¿no deberían de serlo también nuestros sistemas de inteligencia artificial? [MÚSICA] La necesidad de la cognición 4E en sistemas artificiales depende del propósito con el que los construyamos. Si queremos soluciones técnicas de clasificación o búsqueda, no ayuda adentrarse en problemas que pueden ser más de filosofía que de ingeniería; pero si queremos que los sistemas tengan capacidades cognitivas similares a las humanas, o bien, queremos aplicar el método sintético para comprender mejor la conexión en seres vivos, hemos visto que estudiar la mente de manera aislada es problemático en muchos aspectos. En algunos casos, todo se puede modelar en términos de información, es decir, se pueden simular cuerpos y entornos, lo cual es más barato y rápido que desarrollar robots físicos; sin embargo, las simulaciones no siempre contienen la riqueza del mundo físico. En otras palabras, no podemos decir Si el enfoque 4E es necesario o no, Independientemente de un contexto. Retomando el modelo del sándwich, donde la cognición es la carne, más bien aguacate en la versión vegana, entre percepción y acción, se asume que estas tres son separables. A veces sí son separables, pero a veces no. A veces podemos hablar de un cerebro en un frasco, pero en muchos casos no tiene sentido. Una situación similar encontramos si queremos decidir si las representaciones son necesarias para la cognición. Recordemos que la inteligencia artificial y ciencia cognitiva clásicas asumen que la cognición consiste en la manipulación de símbolos, los cuales son representaciones del entorno, del agente mismo y de sus acciones. A cierto nivel, esta descripción puede ser útil, principalmente en entornos cerrados; pero si queremos estudiar la cognición en términos de fisiología o de genética, ¿dónde están las representaciones? Al no poder relacionar fácilmente neuronas con ideas, muchas veces las descripciones se quedan al nivel que nos interesa, ya sea el de las neuronas o el de las ideas. Avances recientes en neurociencia de redes son prometedores, pero están explicando por qué es difícil relacionar las neuronas con ideas, más que aclarar su relación. En inteligencia artificial tenemos una situación parecida: los modelos conexionistas, como redes neuronales artificiales o algoritmos genéticos, no se manejan a nivel de ideas o conceptos o símbolos, pero sirven para clasificar patrones o realizar búsquedas; mientras tanto, los modelos basados en reglas sí se desarrollan a nivel de ideas o conceptos o símbolos, entonces, las lógicas son muy útiles para automatizar el razonamiento. Ha habido intentos por relacionarlos, pero no han tenido un éxito general. ¿Será esta una limitación inevitable, o un importante avance a la espera de ser alcanzado? La inteligencia artificial tiene mucho potencial, pero mientras sus procesos no sean 4E: encarnados, embebidos, extendidos y enactivos, de manera inherente estará limitada para exhibir funcionalidades cognitivas de complejidades similares a las humanas en contextos abiertos. [MÚSICA] [MÚSICA]