En un sistema de inteligencia artifical, como explica el grupo de expertos de la OBCD, es un sistema basado en una máquina. Que puede para un conjunto dado de objetos definidos por el ser humanos hacer predicciones, recomendaciones o decisiones que influyen en entornos reales o virtuales. Los diversos datos que se ingresan al modelo, así como los datos de salida del mismo, son los principales insumos para el desarrollo de cualquier proyecto. El sistema utiliza datos de entrada basados en la máquina y/o en un ser humano para percibir, entonces, entornos reales o virtuales. Abstraer dichas percepciones en modelos de forma automatizada o manualmente. Y utiliza la inferencia del modelo para formular opciones de información o de acción. Estas opciones de clasificación o predicción las encontramos diariamente en nuestras aplicaciones móviles de mapas, redes sociales, entretenimiento, entre otras. Además de los beneficios, la inteligencia artificial plantea consideraciones de política pública. Y se necesitan esfuerzos para garantizar sistemas de inteligencia artificial fiables y centrados en el ser humano. La inteligencia artificial plantea nuevos tipos de preocupaciones éticas y de equidad. El principal de ellos es el respeto a los derechos humanos y a los valores democráticos. Como por ejemplo de los peligros de trasladar los prejuicios del mundo análogo al digital, afectando derechos individuales y colectivos. A grandes rasgos, se puede afirmar que el uso e implementación de inteligencia artificial trae consigo diversas implicaciones de carácter ético, social y jurídico. Pero, ¿cómo denominamos a estas implicaciones? En diferentes países se han analizado cómo debemos denominar a estas implicaciones. Sin embargo, lo más importante, más allá de cómo se denomine, es que cualquier organización tenga un sistema de alertas tempranas para determinar los riesgos de estas innovaciones. Dentro de la doctrina internacional se han denominado como problemas. Los cuales hacen referencia a una cuestión discutible que hay que resolver o la que se le busca una explicación. Las opciones no son excluyentes entre sí. En segundo lugar, se han denominado como retos, que hacen referencia a la situación difícil o peligrosa con la que alguien se enfrenta. En tercer lugar, se han denominado como riesgos, como la determinación de la posibilidad de que se produzca un contratiempo o una desgracia. De que alguien o algo sufra un perjuicio o un daño. Y finalmente, en otras áreas se han denominado como consecuencias no intencionales a los hechos o acontecimientos derivados o que se resultan inevitables. Desde la inclusión de la inteligencia artificial en diversas industrias, se han encontrado varias implicaciones sociales tales como en materia de protección de datos. Sesgos en las decisiones automatizadas, disparidad social y económica, afectaciones a la reputación. Perfilamiento, vigilancia masiva, accidentes, hacking, represión, automatización de armas, volatilidad en el mercado, entre otras. Como te puedes dar cuenta, las interrelaciones entre los aspectos sociales y la tecnología son cada vez más importantes. Para sintetizar estas implicaciones las podemos dividir en tres grandes ramas. En primer lugar, las implicaiones de carácter individual. En segundo lugar, las implicaciones en la organización. Y en tercer lugar, las implicaciones en la sociedad. Dentro de las implicaciones individuales sabemos que nos encontramos en un mundo cada vez más digitalizado. En donde nuestro datos se recolectan a través de diversas formas. Como, por ejemplo, a través de formularios físicos o digitales, o a través del audio y video. La recolección masiva de estos datos hace que nuestra relación con la tecnología de inteligencia artificial sea acelerada sin darnos cuenta. Muchas de las aplicaciones que usamos a diario usan algoritmos de predicción y de recomendación. Los cuales, en principio, tienen un objetivo de apoyo al consumidor en la toma de decisiones. Sin embargo, el resultado en muchos casos es que esa toma de decisiones se basa en un perfilamiento erróneo de la persona. Que para el caso de una recomendación de una película, no necesariamente es tan grave, como si lo fuese si pensamos en la asignación de recursos sociales. El impacto de carácter individual hace referencia al efecto que una decisión asistida o tomada por un sistema de inteligencia artificial puede tener en un individuo. Los diferentes niveles de gravedad y los diferentes tipos de impacto pueden cambiar las explicaciones que las personas encontrarán útiles y el propósito de la explicación. Algunos de los impactos individuales más destacados son. En primer lugar, la privacidad y asuntos relacionados con la protección de los datos personales de cada individuo. Sobre este punto, en particular, las organizaciones que implementan sistemas de inteligencia artificial deben hacer un análisis de impacto en esta materia. En segundo lugar, los riesgos y violaciones a la integridad física. Piensa, por ejemplo, en el mal funcionamiento de los vehículos autónomos, cuando provoca lesiones o la muerte del conductor, pasajeros o personas externas. O por ejemplo, los modelos de aprendizaje automático, que diagnostican erróneamente las enfermedades que pueden causar lesiones personales o, incluso, la muerte. Y finalmente, los riesgos que tiene un individuo en materia de equidad y trato justo. Sobre este aspecto, debemos explorar hasta qué punto una decisión asistida o automatizada del algoritmo puede llegar a afectar derechos fundamentales de los individuos en casos particulares. Piensa, por ejemplo, en la búsqueda de empleo o asignación de recursos sociales. Veamos algunos casos. El primero de ellos se trata de una herramienta que lanzó Amazon para revisar los currículums de los solicitantes de empleo. Con el objetivo de mecanizar la búsqueda de los mejores talentos. Esta herramienta utilizaba inteligencia artificial para dar a los candidatos puntuaciones que iban de una a cinco estrellas. Y de forma muy parecida a como los compradores califican los productos en la plataforma. Sin embargo, en el 2015 la empresa se dio cuenta de que su nuevo sistema no estaba calificando a los candidatos para puestos de desarrollador de software. Y otros puestos técnicos de manera neutral en cuanto al género. Esto se debe a que los modelos informáticos de Amazon fueron entrenados para investigar a los candidatos. Mediante la observación de patrones de los currículums enviados a la empresa durante un periodo de diez años. La mayoría procedía de hombres. En efecto, el sistema se enseñó a sí mismo a que los candidatos masculinos eran preferibles. Penalizaba, entonces, los currículums que incluían las palabras asociadas a mujeres, como por ejemplo, capitana del club de ajedrez de mujeres. Y rebajó la categoría de los graduados de dos universidades exclusivamente femeninas. Finalmente, debido a la baja calidad y diversidad de sus bases de datos para entrenar este modelo, la empresa disolvió este proyecto en el 2017, debido a una presión social y reputacional. El segundo caso se trata de una herramienta que se está usando para un concurso de belleza lanzado por Youth Laboratories. Y otros patrocinadores de este concurso, que tuvo su primera versión en donde los candidatos y candidatas eran juzgados por un sistema de inteligencia artificial. La empresa afirma que sus diagnóstico evalúan la belleza de la persona basada en las arrugas, la simetría del rostro. Y el color de la piel, el sexo, el grupo de la edad y la etnia. En 2016 hubo 7.000 participantes y de los 44 seleccionados, solo 1 era de piel oscura. Esta discriminación algorítmica puede enmarcarse en los datos sesgados por raza o por etnia. Sin embargo, esto no detuvo a la empresa para gestionar la versión 2.0 del concurso. Recuerda que si deseas participar, no puedes tener elementos como gafas. Este concurso fue escogido como uno de los casos de estudio para un programa denominado Diversity AI. Este proyecto nace del grupo de reflexión que se dedica a abordar el sesgo algorítmico. La discriminación racial, de género, de etnia y de edad, por parte de los sistemas de inteligencia artificial. Sobre las implicaciones en la organización, es importante resaltar que dado que la inteligencia artificial es una tecnología relativamente nueva en las empresas. Pocos directivos han tenido la oportunidad de perfeccionar su intuición sobre el alcance total de los riesgos que esta conlleva. Como resultado, los ejecutivos suelen pasar por alto los peligros potenciales. O sobreestiman las capacidades de mitigación de riesgo en una organización. También es habitual que los directivos agrupen los riesgos de inteligencia artificial con otros que pertenecen a especialistas de organizaciones de TI y análisis de datos. Los líderes que esperan evitar, o al menos mitigar las consecuencias previstas o imprevistas. Necesitan tanto desarrollar sus habilidades de reconocimiento de patrones con respecto a los riesgos de la inteligencia artificial. Como involucrar a toda la organización para que esté preparada para comprender la responsabilidad asociada a esta tecnología. Así, el impacto de la inteligencia artificial en la organización va de la mano con el desarrollo empresarial sobre los aspectos éticos del uso de esta tecnología. Sin embargo, cuando no se atienden a estos llamados, las organizaciones pueden quedar expuestas a riesgos como. Pérdidas financieras, en donde la organización toma decisiones de adopción de inteligencia artifical que no resultan cumplir con los estándares de ética. Lo que ocasiona el cierre del proyecto y, como consecuencia, pérdidas financieras. En segundo lugar, las organizaciones pueden tener fallas en cuanto a la legalidad y el cumplimiento de la normativa. Por ejemplo, en la adopción de un sistema de inteligencia artificial que como resultado esté creando un resultado imprevisto. Como discriminación en decisiones de préstamos que pueden dar lugar a litigios. Otro ejemplo puede ser que debido a la ausencia de un análisis de impacto algorítmico. No se haya previsto que el uso de datos de la salud puede resultar en vulneraciones al régimen de protección de datos. Finalmente, las empresas pueden ver afectada su reputación. La falta de claridad en la configuración de la privacidad de los datos puede conllevar a una reacción social en cadena. Que resultaría afectando la integridad de la empresa. Pensemos también en algún algoritmo de inteligencia artificial que la empresa esté desarrollando. Y que utilice información personal invasiva. Esto podría hacer ver a la empresa como intrusiva o deshonesta en el escarnio público. Veamos un caso, se trata de un bot que fue creado por las divisiones de tecnología e investigación de Microsoft y Bing, y se denominó Tay. Como un acrónimo de thinking about you. Este bot fue diseñado para imitar los patrones de lenguaje de una chica estadounidense de 19 años. Y aprender de la interacción con usuarios humanos en Twitter. Tay fue lanzada en el 2016, bajo el nombre de TayTweets. Sin embargo, en pocos minutos, Tay empezó a responder a otros usuarios. Y también fue capaz de ponerle título a las fotos que se proporcionaban en forma de memes. Algunos usuarios de esta red social empezaron a tweetear frases políticamente incorrectas. Enseñándole mensajes incendiarios que giraban en torno a temas comunes en Internet. Como resultado, el bot comenzó a lanzar mensajes racistas y de contenido sexual en respuesta a otros usuarios. Tay estaba limitando el comportamiento deliberadamente ofensivo de otros usuarios de Twitter. Y Microsoft no había entrenado al bot para comprender el comportamiento inapropiado. Sin embargo, no todas las respuestas incendiarias implicaban la capacidad de repetición. Por ejemplo, Tay respondió una pregunta sobre, sucedió el Holocausto con se inventó. Debido al escándalo mediático, el bot fue desconectado. Y la compañía, en respuesta, advirtió que Tay se puso en línea inadvertidamente durante las pruebas. Lo que demuestra la falla reputacional que puede ocasionar el uso de esta tecnología sin una supervisión o testeo previo. Es innegable que con el uso de la inteligencia artificial la sociedad también se beneficia. Aportando contribuciones que nos han facilitado la vida a los humanos, desde poder almacenar y analizar datos de múltiples industrias de forma más eficaz. Hasta mejorar nuestras rutinas habituales con asistentes virtuales y domésticos. Sin embargo, no es el artefacto de inteligencia artificial el que es ético, digno de confianza o responsable. Más bien, es el componente social del sistema sociotécnico el que puede y debe asumir la responsabilidad. Y actuar teniendo en cuenta un marco ético, de manera que la sociedad pueda confiar en el sistema. Para que se logre un beneficio social del uso de la inteligencia artificial, es indispensable que como sociedad pensemos en la real implementación de principios éticos. Que serán la base del diseño y el desarrollo de estos sistemas para así, disminuir la desigualdad, y potencializar la autonomía humana. A la vez de que se aumenta y se distribuye equitativamente los beneficios. El impacto de la inteligencia artificial en la sociedad puede ser beneficioso en muchos aspectos. Pero si esta tecnología no es implementada siguiendo unos parámetros éticos y legales, nos veremos enfrentados a riesgos sociales como afectaciones a la seguridad nacional. Por ejemplo, en el escenario en el cual delincuentes cooptan a un productor desarrollados con esta tecnología. Para ocasionar un daño como en armamento, drones, herramientas cibernéticas y los utilizan para actividades ilegales. Además, teniendo presente que ninguna tecnología es infalible y que estamos expuestos a ataques cibernéticos todos los días. Las brechas sobre los datos sensibles pueden llegar a exponer vulnerabilidades y secretos clave del país. Otra de las implicaciones que debemos revisar se trata de la escalabilidad económica. Debemos tener presente que el uso de estos algoritmos de predicción pueden aumentar la volatilidad de los mercados financieros. Y crear una inestabilidad en los mercados de divisas. En los casos en los cuales un algoritmo falle en su predicción, ya que los instrumentos financieros de caja negra provocarían un riesgo sistémico. Y finalmente, la implementación de estas herramientas sin una correcta e independiente auditoría, podría generar riesgos en la escalabilidad política del país. Pensemos, por ejemplo, en la implementación de inteligencia artificial para procesos institucionales nacionales como elecciones o contrataciones. En las cuales el algoritmo no ha sido auditado ni testeado. Y como resultado, puede llegar a tergiversarse la información o afectar derechos fundamentales individuales y colectivos. Veamos un ejemplo. La justicia estadounidense utiliza un sofisticado software llamado COMPAS. Una herramienta informática que ayuda a los jueces a definir, por ejemplo, si alguien debe ir a la cárcel o salir en libertad condicional. O el tiempo que debe permanecer en prision según su puntuación de riesgo de reincidencia. Según las investigaciones realizadas por la organización social ProPublica, los datos de entrada utilizados para la predicción de la reincidencia, emplea 137 factores. Que incluyen la edad, el sexo y los antecedentes penales del acusado. Es importante señalar que la raza no es una característica explícita de la puntuación del modelo. Así, una vez analizados los datos de cada individuo, el sistema proporciona una puntuación de uno a diez, siendo diez un alto grado de reincidencia. En función de las puntuaciones generadas por este programa informático, el juez puede decidir si detener al acusado antes del juicio o al dictar la sentencia. Sin embargo, se ha podido determinar que, en general, la herramienta de evaluación predice correctamente la reincidencia en un 61% de las veces. Pero, los afrodescendientes tienen casi el doble de probabilidad que las personas de tez blanca de ser etiquetados como de alto riesgo. Pero, entre los blancos se produce un error contrario. Son mucho más propensos que los afrodescendientes a ser etiquetados como de menor riesgo. Pero que pasan a cometer otros delitos. Este es un riesgo importante en los modelos de aprendizaje automático. Y cuando se trata de la libertad de alguien, es una falla que no debería pasar desapercibida. Con estos ejemplos, podemos evidenciar los diferentes riesgos de carácter social, individual e incluso organizacional. El uso de este tipo de algoritmos puede reducir la capacidad del ser humano de razonar y de dejarse influenciar por el sistema. En igual proporción, afectaría derechos fundamentales de los ciudadanos, cuando a su vez una desconfianza en las instituciones del Estado. Como conclusión, podemos decir que la inteligencia artificial es extremadamente poderosa. Y puede utilizarse de maneras que afectan negativamente a la sociedad. Así, desarrolar y utilizar sistemas de IA de forma responsable nos lleva a implementar dentro de las organizaciones cuestiones éticas inherentes a la inteligencia artificial. Desde el equipo legal, la alta dirección, los desarrolladores y en general toda la organización deben tener una visión realista de sus sistemas y de sus capacidades. Y ser conscientes de las diferentes formas de sesgo potencialmente presentes en sus sistemas. Con esta consciencia, la organización puede evitar una reacción involuntaria de sus sistemas de inteligencia artificial que tengan un impacto negativo. Existen entonces cuestiones éticas relacionadas con la IA que deben abordarse a medio y corto plazo, así como ahora. Al desarrollar sistemas de inteligencia artificial, los expertos deben evitar introducir sesgos, you sean de género, raciales, sociales o de cualquier otra forma. Para ello, deben seguir y aplicar unos principios éticos y legales, para, por ejemplo, garantizar la diversidad y la variedad de los datos de entrada. Así como utilizar herramientas de diagnóstico, como los análisis de impacto algorítmicos. La confianza es clave para desarrollar sistemas de inteligencia artificial útiles, exitosos y con beneficio social. Para lograr esta confianza, debemos tener presente aspectos como la transparencia, la responsabilidad, la privacidad y el beneficio social, entre otros.