Dentro de los marcos éticos y regulatorios de la inteligencia artificial, encontramos tres elementos que analizaremos en esta oportunidad. Primero, hablaremos sobre el concepto de gobernanza de la inteligencia artificial y democracia. Desde hace aproximadamente cuatro años, se han empezado a crear diversos modelos regulatorios que analizan las diferentes implicaciones en algunas industrias, por ejemplo el uso de la IA en temas de justicia o para vehículos automáticos. Segundo, hablaremos sobre los marcos éticos que se han desarrollado, no solo a nivel internacional, sino algunos ejemplos a nivel regional, en donde encontramos propuestas propias nacionales, o extracciones de otras jurisdicciones. Finalmente, el tercer elemento tiene que ver con la implementación de la ética de la inteligencia artificial en una organización, bien sea pública o privada. De esta forma, veremos cómo se materializan los principios éticos en una organización. Habiendo estudiado previamente cómo los sistemas impulsados por la inteligencia artificial tienen amplias implicaciones sociales y económicas, así como a través de algunos ejemplos, se ha demostrado que exacerban la discriminación y las desigualdades estructurales, podemos afirmar que las cuestiones éticas, jurídicas, sociales y económicas preocupan a reguladores, investigadores y a las organizaciones. Recordemos que en algunos de los casos de uso de la inteligencia artificial, se ha evidenciado sesgos de confirmación, que refuerzan la idea preconcebida sobre un grupo o sobre un individuo, lo cual da lugar a una cámara de eco para presentar información, u opciones similares a las que un individuo ha elegido, por él o para él previamente. La población se enfrenta a diversos sesgos por parte de muchos de los sistemas de inteligencia artificial, como la policía predictiva, las aplicaciones de préstamos, los servicios de transporte, entre otros. Las máquinas que afectan el comportamiento humano e inducen a cambios sociales y culturales, nos lleva a cuestionarnos. Actualmente la ética de la IA se considera parte de la ética de la tecnología específica de los robots, y de otras entidades artificialmente inteligentes. Se refiere a las cuestiones de cómo deben comportarse los desarrolladores, los fabricantes, las autoridades y los operadores para minimizar los riesgos éticos que pueden surgir de la inteligencia artificial en la sociedad; ya sea por el diseño, la aplicación o la inadecuada, o el mal uso intencionado de la tecnología. En consecuencia, es viable preguntarnos, ¿cómo eliminar los sesgos algorítmicos de la inteligencia artificial? ¿Cuál es la forma más adecuada para regular la IA para mitigar estos riesgos? Como cualquier nueva tecnología de rápido crecimiento, las directrices sobre inteligencia artificial son limitadas. Por tanto, los críticos, como los entusiastas de la IA, acogen con satisfacción las regulaciones inteligentes. Aunque la noción de normativa suele ser percibida y recibida con frustración por parte de las empresas, quizás sea mejor adoptar una posición de influencia sobre la ley que de ilegalidad. Esta metodología busca enfocar las diversas organizaciones y Estados, para encontrar puntos de contacto entre industrias, usuarios y gobiernos; con el fin de analizar si es necesaria la regulación o no, basados en la búsqueda de objetivos comunes. En diversos países se ha acogido diferentes nombres, tales como regulación adaptativa, regulación a través de espacios de prueba, regulación basada en resultados, regulación en ponderación de riesgos o regulación colaborativa. Esta metodología ayuda a los responsables políticos a formular formas más flexibles, imaginativas e innovadoras de instrumentos políticos. La regulación inteligente consiste principalmente en responder al problema del ritmo, con el objetivo de una regulación cíclica, en lugar de normas duraderas, que se establezcan estándares legales fijos durante décadas. La reglamentación inteligente también responde a los problemas de coordinación y conocimiento, al ser más interactiva e incluir a más partes interesadas, como grupos de interés, organismos profesionales, asociaciones industriales y cuasi reguladores, como por ejemplo los organismos de certificación. Este enfoque permite a los legisladores obtener una perspectiva más completa y diversa de los problemas, así como de las posibles soluciones, al tiempo que contribuye a una mayor aceptación de las intervenciones reguladoras por parte de las partes interesadas. En diversos países del mundo se ha adoptado esta metodología para entender si hay cabida a una regulación, o si por el contrario se debe esperar a iniciar el diálogo a través de la autorregulación. Bajo este entendido, lo que se busca no es regular la tecnología, sino los efectos en determinadas circunstancias. Así, por ejemplo, los intentos por regular una tecnología han sido fallidos, y ahora lo que se busca es tratar de regular los efectos, como en el caso del reconocimiento facial, a través de una regulación en materia de protección de datos. Existen entonces, avances regulatorios de carácter nacional, como las propuestas de regulación que se han desarrollado en la Unión Europea y en Canadá, sobre las decisiones automatizadas. También, se han implementado una serie de marcos éticos, como base de "soft law", la cual busca entregar a los diferentes actores las bases sobre las cuales se debe interactuar con la inteligencia artificial para un beneficio social. Además, se han creado una serie de estándares internacionales en diversas organizaciones, para entregar sellos de calidad en cuanto al uso e implementación de esta tecnología para diversos campos, como por ejemplo en temas de auditoría, y explicabilidad. Finalmente, muchas organizaciones han creado sus códigos de conducta internos, que buscan aplicar los principios internacionales, adaptándolos a su modelo de negocio para evidenciar una responsabilidad demostrada en el uso de la inteligencia artificial. Como nos podemos dar cuenta, las diferentes formas de regulación resultan complementarias, dependiendo de los efectos y las circunstancias específicas de cada sociedad. Estas formas de regulación no resultan incompatibles entre sí, de hecho, lo que se busca es que las diversas partes interesadas aporten a estos procesos. Así, pueden coexistir un marco ético, que como resultado traiga una regulación en materia específica, y al mismo tiempo la adopción de estándares empresariales o internacionales, que se adoptan como buenas prácticas. De los diferentes marcos éticos, se han identificado las principales áreas en las cuales se despliega una serie de principios, que varían dependiendo de la jurisdicción o de la organización que los propone. Dentro del mar de marcos y principios, podemos identificar que los principales son, primero, la privacidad, de la cual se desprende en principio, sobre el control y el uso de los datos personales, el consentimiento y la autorización para el uso de los datos; así como tener presente el concepto de privacidad por diseño y por defecto. Además, se involucran derechos que han sido analizados en algunas jurisdicciones más que en otras, como el derecho a la rectificación de la Unión Europea, y la eliminación de los datos para las decisiones automatizadas, o las limitaciones en finalidades para el uso de estos datos. Dos, la responsabilidad demostrada o más conocida como "Accountability" en inglés. Este principio involucra la metodología de análisis de impacto algorítmico, así como de análisis de impacto tecnológico. Con estas metodologías se puede determinar el proceso de evaluación, y de auditoría del sistema. Al mismo tiempo, podemos verificar diferentes escenarios de responsabilidad al interior de la organización, así como plantear estrategias para el monitoreo y en la rendición de cuentas. Tercero, seguridad y protección. Bajo este principio se escriben todas las herramientas en materia de seguridad técnica, tecnológica y de previsión de daños, que se pueden llegar a implementar en el sistema y en la organización. Dentro de este principio se debe demostrar que la tecnología usada es segura y confiable. Cuarto, la transparencia y la explicación. Bajo este principio se enmarcan diversas estrategias, que las organizaciones deben prever cuando desarrollan un sistema de inteligencia artificial confiable. Se espera entonces que se pueda garantizar el derecho a la explicación de las decisiones automatizadas, que la información sea transparente y accesible, que el usuario final pueda ser notificado cuando interactúa con un sistema de IA, y por ejemplo que en materia de sistemas de inteligencia artificial aplicados a la gestión pública, se usen algoritmos de código abierto, y contratación abierta y auditable. Equidad y no discriminación. Este principio se enfoca en la mitigación y prevención de riesgos, como lo serían los sesgos y la inequidad. A través de este principio, se busca que las organizaciones desarrollen sistemas de inteligencia artificial, que tengan como objetivo la prevención de cualquier sesgo algorítmico por razones de género, raza, inclinación política u otra característica particular para garantizar la igualdad y la equidad. Al mismo tiempo, este principio busca que desde el diseño de la organización, se incluyan conceptos como diversidad y variedad en los equipos involucrados con el desarrollo de la inteligencia artificial, así como que los datos usados puedan representar un porcentaje significativo de la población, evitando la infra representación y la sobre representación. El control humano en la tecnología. Sobre este principio se han discutido conceptos relevantes, como mantener al humano en todos los ciclos del desarrollo de la inteligencia artificial, "Human in the look", así como hacer al humano el centro de la discusión, más allá de la tecnología, "Human center". Para cumplir estas premisas, este principio establece que el ser humano deberá estar en la capacidad de tener el control sobre la tecnología que se desarrolle, así como tendrá la responsabilidad de revisar las decisiones automatizadas de los sistemas de IA, para iterar sobre estos resultados, buscando siempre un beneficio común y social. Además, se ha discutido en algunas jurisdicciones, la posibilidad de que el usuario final pueda retractarse, de ser sujeto de decisiones automatizadas, así como eliminar sus datos del modelo. Esta última parte ha generado polémicas debido a la escalabilidad y dificultad técnica, pero es algo que se ha planteado para tener en cuenta a la hora de implementar un sistema de inteligencia artificial. La responsabilidad profesional. Bajo este principio se espera que las organizaciones que desarrollan sistemas de IA, puedan interactuar con las partes interesadas, como la academia, la sociedad civil, la sociedad técnica y el gobierno, entre otras. Con ello, se busca desplegar un sistema responsable desde su diseño, para considerar no solo los efectos a corto plazo, sino los efectos a largo plazo, y qué mejor estrategia que invitar a la conversación a todos los interesados. Finalmente, el principio de promoción y de valores humanos. Sobre este principio radican aspectos relevantes, como el hecho de crear e implementar sistemas de IA, con el fin último de generar un beneficio social, así como de proporcionar, a través de la tecnología, la protección de derechos humanos, considerando al mismo tiempo que no todas las personas tienen acceso a nuevas tecnologías. Por ejemplo, se debe tener presente que el nivel de permeabilidad de Internet en cada país es diferente. Veamos algunas conclusiones. Primero, los sistemas algorítmicos se utilizan cada vez más como parte de los procesos de toma de decisiones, tanto en el sector público como en el sector privado, como consecuencia potencialmente importante para los individuos, las organizaciones y la sociedad en su conjunto. Segundo, estos sistemas se refieren a la combinación de algoritmos, datos, y el proceso de interfaz que determinan conjuntamente los resultados que afectan a los usuarios finales. Sin embargo, las mismas propiedades de escala, complejidad e inferencia autónoma de modelos, van unidas a la creciente preocupación de que muchos de estos sistemas son opacos, para las personas afectadas por su uso, y carecen de explicaciones claras sobre las decisiones que se toman. Tercero, esta falta de transparencia corre el riesgo de socavar un escrutinio significativo y la rendición de cuentas, lo cual es una preocupación importante cuando estos sistemas se aplican como parte de los procesos de toma de decisiones, que pueden tener un impacto considerable en los derechos humanos de las personas. Por ejemplo, las decisiones críticas en materia de seguridad de los vehículos autónomos, la asignación de recursos de servicios sanitarios y sociales, entre otros. Y cuarto, estas preocupaciones han llevado a la creación de diversas estrategias de regulación y autorregulación para los sistemas de inteligencia artificial, que varían por ejemplo siendo más restrictivos o permisivos, dependiendo del enfoque que busque cada país, como por ejemplo marcos éticos, estándares regulatorios o códigos de conducta.