La publicación de un estudio en el que se dio a conocer la existencia de un algoritmo que presume de adivinar la orientación sexual de las personas causó mucha polémica.
En 2017, la comunidad científica informó sobre la existencia de un algoritmo computacional que —supuestamente— tenía altas probabilidades de adivinar la orientación sexual y, a partir del reconocimiento facial, decir si se es homosexual.
La existencia de este avance tecnológico se dio a conocer gracias a un estudio realizado por investigadores de la Universidad Stanford: Deep neural networks are more accurate than humans at detecting sexual orientation from facial images.
Según se detalla en el paper desarrollado por Yilun Wang y Michal Kosinski, dicho algoritmo computacional tiene más probabilidades de acertar en la orientación sexual de una persona que el propio cerebro humano. Las capacidades cognitivas humanas acertaron en un 61% (hombres gay) y 54% (mujeres lesbianas).
Por su parte, los resultados de este algoritmo quedaron de la siguiente manera: 81% (hombres) y 71% (mujeres). Al momento de contar con 5 fotografías, la posibilidad de que el algoritmo adivine la orientación sexual ascendió a un 91% en el caso de los varones y 83% en el de las mujeres. Este fue uno de los hallazgos que más llamó la atención.
Lo observado por los investigadores se consideró un hallazgo importante para el campo de la fisiognomía. Este campo del conocimiento se especializa en el estudio del rostro. Tal y como lo exponen Wang y Kosinski, en algunos sectores de la ciencia prevalece una postura de rechazo hacia la fisiognomía. Sin embargo, aseguran, está siendo clave en el desarrollo tecnológico (especialmente para la inteligencia artificial).
¿En qué se basó el estudio?
A lo largo del paper, los investigadores exponen sus razones para hacer de la orientación sexual el objetivo y la categoría central del estudio de este algoritmo computacional. En principio, quisieron saber si la inteligencia artificial podía identificar rasgos que no son tan sencillos de codificar para los seres humanos.
Como segunda causal, Wang y Kosinski reactivaron el debate de la supuesta neutralidad tecnológica. En tercera instancia plantearon la hipótesis de si hay una relación comprobable entre las características del rostro y rasgos tan íntimos como lo es la orientación sexual. Respecto a este punto, los investigadores quisieron observar si las tecnologías de inteligencia artificial pueden identificar o prestar mayor atención a rasgos faciales que en el ojo y cerebro humano pueden pasar desapercibidos.
Para desarrollar la investigación del algoritmo que —aparentemente— puede saber si se es homosexual, Wang y Kosinski recuperaron fotografías de personas en internet y las utilizaron como pruebas representativas. En total, los investigadores recopilaron 35 326 imágenes de páginas de citas. El rango etario fue entre los 18 y 40 años. Además de la edad, se detalló la orientación sexual. La atención del algoritmo estuvo focalizada en características fijas (como la nariz) y transitorias (el peinado, por ejemplo).
Reacciones respecto a la publicación del estudio
Ciertos sectores se sorprendieron por el desarrollo de este algoritmo que ‘adivina’ la orientación sexual. No obstante, en su mayoría la recepción fue negativa. Tras la publicación de dicha investigación se retomaron debates relacionados con la ética y el respeto a la privacidad.
Algunos activistas dedicados a la defensa de los derechos digitales señalaron lo violenta que resulta la recopilación de datos biométricos. Al hacer énfasis en que este algoritmo computacional podía determinar si una persona era homosexual o no, la población más interpelada fue la LGBT+.
Más que causar asombro o reconocimiento, organizaciones como la Alianza de Gays y Lesbianas contra la difamación (GLAAD, por sus siglas en inglés) y Human Rights Campaign manifestaron su preocupación. Durante una entrevista con el sitio web Mashable, el entonces oficial digital de GLAAD, James Heighington, expresó lo siguiente:
«La tecnología no puede identificar la orientación sexual de una persona. Lo que su tecnología puede reconocer es un patrón que encontró en un pequeño subconjunto de gays y lesbianas blancas que se ven similares».
«Es una herramienta que podría tener efectos nocivos»: opinión de Nicholas Rule sobre el algoritmo que presume adivinar la orientación sexual
Además de las denuncias de racismo, otros especialistas en tecnología señalaron que este algoritmo resultaba peligroso por reducir el espectro de la orientación sexual. Al respecto, el investigador Michael Cook (University of Falmouth’s Games Academy) puntualizó:
«Agruparon a las personas en función de si en las páginas de citas decían si estaban interesadas en mujeres u hombres. Simplifican enormemente los espectros de género y sexualidad en los que se encuentra la gente en la vida real. Esto invisibiliza la bisexualidad y la asexualidad. Además, niega a las personas que aún no conocen su orientación sexual».
Otra de las posturas que desaprobaron este algoritmo para ‘adivinar’ la orientación sexual fue la de la experta en ciencia computacional y ciberseguridad Dana Polatin-Reuben (Universidad de Oxford). Desde su perspectiva, el algoritmo que supuestamente identifica si se es homosexual pone en riesgo a las personas LGBT+ que viven en contextos de represión. EN ESTOS 9 PAÍSES DEL CARIBE LA HOMOSEXUALIDAD ES ILEGAL.
Asimismo, el corresponsal y periodista Sam Levine escribió en The Guardian que el desarrollo de esta tecnología de inteligencia artificial podía ser una herramienta utilizada por Gobiernos que castigan las orientaciones sexuales disidentes. En el mismo texto, Levine recuperó la opinión de Nicholas Rule (departamento de psicología de la Universidad de Toronto). Para Rule, más que ser un avance para el campo de la inteligencia artificial, niega lo que se ha logrado desde la ciencia y, sobre todo, desde los derechos humanos.
¿Ya sabías sobre la existencia de este algoritmo que supuestamente adivina la orientación sexual? ¿Qué opinas?
Con información de Mashable, The Guardian y Deep neural networks are more accurate than humans at detecting sexual orientation from facial images