El tratamiento de los "Big Data" da lugar, entre otras finalidades, como hemos dicho, a la elaboración de perfiles de los usuarios, que implica reconocer patrones de comportamiento de éstos en los que se les encasilla, a los cuales se les envía publicidad dirigida "online" o, si la publicidad es dentro del móvil, se habla del "IA". Puede conllevar esta segmentación, discriminaciones entre los usuarios que no deben ser admisibles por el ordenamiento jurídico si no están convenientemente justificadas. De hecho, hay que tener presente que el "profiling" tiene en cuenta rasgos de la persona que pueden discriminarla, como el sexo, la edad, el origen racial, étnico y algunos de esos rasgos, se consideran datos sensibles y son objeto de una especial protección, otros, en cambio, no. El Reglamento General de Protección de Datos, al que ya he hecho referencia, que es la normativa europea, define la elaboración de perfiles como toda forma de tratamiento automatizado de datos personales consistente en utilizar datos personales para evaluar determinados aspectos personales de una persona física, en particular para analizar o predecir aspectos relativos al rendimiento profesional, situación económica, salud, preferencias personales, intereses, fiabilidad, comportamiento, ubicación o movimientos de dicha persona. Debe destacarse que esta definición sólo se refiere al uso de los perfiles, pero no a la elaboración, a la creación de los mismos. Las tecnologías permiten, así, discriminar a los usuarios en relación con el precio que ofrecen de sus productos o de sus servicios en función del perfil que se obtiene, se advierte qué usuario esté dispuesto a pagar más o menos por ese producto o por ese servicio en función, por ejemplo, de su localización geográfica. Eso va a determinar un nivel de renta, un nivel de vida, un nivel de estudios y, por tanto, ofrecer productos o servicios a un determinado precio a unas personas que se cree que estarían dispuestos a pagar ese precio, por ese producto o ese servicio, a diferencia de otras personas usuarias de Internet localizadas en otra área geográfica. Los patrones que se extraen con el tratamiento de estos datos permite, también, dilucidar si el usuario o consumidor puede considerarse un consumidor medio, normalmente informado y para eso, se ve si se le suministra o no un determinado tipo de información, de una forma concreta. Por ejemplo, si el perfil se asocia al usuario que pertenece a una nacionalidad que consideramos una nacionalidad inmigrante, se le pueden ofrecer productos o servicios con condiciones menos beneficiosas que si se trata de un usuario de nacionalidad que consideramos no inmigrante. Al primero, al inmigrante, se le puede ofrecer la celebración de un contrato de préstamo garantizado con una hipoteca "basura", las llamadas hipotecas "subprime", mientras que al que consideramos usuario de nacionalidad no inmigrante no se le ofrecerían esas condiciones. O, si su pasado financiero permite pensar que no cumplirá obligaciones futuras son otras de las posibles prácticas que se dan mediante la segmentación de los usuarios, a partir de la información que se recibe de ellos vía Internet. Lo que se hace es personalizar, contextualizar la información, aunque la excesiva fragmentación o la excesiva segmentación de los usuarios llega, al final, a descontextualizarlo. Muchas de estas decisiones las adoptan agentes autónomos, es decir, se trata de decisiones automatizadas basadas en los perfiles que afectan, en muchos casos, de forma muy significativa, al interesado por el tratamiento de esos datos. ¿Qué quiere decir que se le afecta de forma muy significativa? Que les perjudican, les afectan de forma perjudicial a ellos, perjudican sus intereses económicos, mermando su capacidad de decisión y de elección de forma sustancial. Además, la elaboración de perfiles de forma automatizada, hace prácticamente imposible para el usuario detectar este tipo de discriminaciones, ya que el usuario de Internet, el consumidor, no es consciente plenamente de que se le está segmentando y, si lo es, porque en algún sitio web se le informa de que se está procediendo a la recogida de sus datos, tampoco es capaz de representarse mentalmente el alcance de lo que eso significa respecto de la formación de su voluntad, de su libertad y de su autonomía personal. Por eso, decimos que se trata de discriminaciones invisibles para el usuario, llevadas a cabo por programas de ordenador. No sólo existe asimetría en la información entre las partes sino que, además, esa información ocasiona discriminación. También se conoce a estas prácticas con el nombre de "weblining". En Europa, el Reglamento General de Protección de Datos advierte que las decisiones automatizadas no deben basarse en categorías especiales de datos, como es el origen étnico o racial, las opiniones políticas, datos genéticos, datos relativos a la vida sexual o de la salud de la persona, salvo que el interesado hubiera dado su consentimiento o hubiera razones de orden público para tratarlas. Esa discriminación invisible es normalmente directa, aunque también podría ser una discriminación por asociación y, normalmente, carecen de justificación. La legislación establece la inversión de la carga de la prueba, de manera que debe ser la parte que discrimina la que pruebe que su actuación o su comportamiento no es discriminatorio. Esta es una medida que, en teoría, protege a la víctima de la discriminación. En la medida, de todas maneras, en que el discriminado no es consciente, cuando se está utilizando esta técnica, de que se le está discriminando, esta norma tiene escasa efectividad en la práctica. En el caso de que se trate de Datos de Carácter Personal, también hay que tener en cuenta que el Reglamento General de Protección de Datos, en su artículo 13, establece que el responsable del tratamiento de datos de carácter personal tiene que facilitar al interesado, ante la existencia de decisiones automatizadas que incluyen elaboración de perfiles, toda una información. En concreto, la información relevante acerca de la lógica aplicada, así como la importancia y las consecuencias previstas del tratamiento por parte del interesado. En relación con ello, debe dudarse si la lógica, la expresión lógica, que utiliza ese precepto significa lógica computacional y, entonces, habrá que saber qué lógica porque en Ciencias de la computación se utilizan varias lógicas o, en realidad, la expresión lógica se refiere a criterio que, obviamente, no significa lo mismo. Tampoco se advierte si esa información acerca de la lógica que se utiliza para la segmentación de los usuarios es una información que se tiene que proporcionar antes de que se aplique el algoritmo o después. Además, la información suministrada, por muy precisa e inteligible que sea, presenta un nivel de complejidad, incluso, un manejo imprescindible de conocimiento técnico y de lenguaje técnico que puede ser muy difícil que el usuario titular de los datos personales, pueda comprenderla exactamente más allá de la pura comprensión gramatical. Y no siempre está tan claro su funcionamiento. Por ejemplo, las redes neuronales artificiales que están formadas por múltiples nodos, cada uno de los cuales representa un paquete concreto de funciones que interactúan en una estructura multinivel, que tienen capacidad de aprendizaje y que adoptan decisiones de forma autónoma, muchas veces, la lógica computacional interna se muestra elusiva, de manera que es muy difícil llegar a saber exactamente qué lógica computacional está utilizando esa estructura. Por tanto, en ese sentido, podemos hablar de que se trata de algoritmos opacos. Otro problema añadido también es la naturaleza y la cantidad de los datos tratados. Se maneja una gran cantidad de datos y, por tanto, a veces son las variables impredecibles y también existen algoritmos que no pueden ser objeto de escrutinio público, independiente a los datos generales que se usaron para generar ese algoritmo. De todos modos, debe tenerse presente que según el Reglamento General de Protección de Datos explicita, específicamente, en el artículo 22 que toda persona tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado o en la elaboración de perfiles que puedan producir efectos jurídicos sobre él o que le afecten de forma significativa. Es decir, que va a poder impugnar todos aquellos negocios jurídicos celebrados en función exclusivamente de esas decisiones automatizadas, en la medida en que se vea perjudicada negativamente por esas decisiones. Además, va a poder reclamar los daños y perjuicios que esa discriminación invisible, que después descubre, le hubieran podido ocasionar.