www.cronicalocal.es
El acoso verbal a mujeres en redes sociales se replica en la inteligencia artificial

El acoso verbal a mujeres en redes sociales se replica en la inteligencia artificial

Por Redacción
x
admincibelesnet/5/5/13
cibeles.net
miércoles 11 de diciembre de 2024, 15:51h

Escucha la noticia

El maltrato verbal hacia las mujeres en redes sociales se está trasladando a la inteligencia artificial, generando preocupaciones sobre la reproducción de sesgos de género en los modelos de lenguaje. Las interacciones digitales fomentan comportamientos agresivos, y el anonimato permite que muchas personas ignoren el impacto de sus palabras. Las mujeres son particularmente vulnerables a este tipo de agresiones, que a menudo se centran en su apariencia y vida privada. La inteligencia artificial, al ser entrenada con datos de estas plataformas, puede perpetuar estereotipos dañinos. Además, los asistentes virtuales femeninos suelen recibir comentarios abusivos sin reconocerlos adecuadamente, lo que normaliza patrones de conducta perjudiciales. Para abordar esta problemática, es crucial fomentar la educación con perspectiva de género y aumentar la representación femenina en el desarrollo tecnológico.

La influencia de las redes sociales en la violencia de género

Las redes sociales y las interacciones digitales han demostrado ser un caldo de cultivo para comportamientos violentos, comentarios agresivos y el uso de imágenes, emojis o memes ofensivos. Este fenómeno se ve exacerbado por el anonimato que ofrecen estas plataformas, permitiendo a los usuarios expresarse sin temor a represalias en el mundo real.

En este contexto virtual, las mujeres y niñas se encuentran especialmente expuestas a agresiones. Los estudios recientes han revelado que los ataques suelen centrarse en aspectos como la vestimenta, el aspecto físico y la vida privada de las mujeres, perpetuando así estereotipos de género dañinos.

Patrones de agresión y su reflejo en la inteligencia artificial

La identificación de estos patrones permite analizar cómo se utiliza el lenguaje en las redes sociales y qué revelan sobre los sesgos de género. Con la creciente presencia de la inteligencia artificial, surge una preocupación adicional: si los modelos de lenguaje son entrenados con datos extraídos de estas plataformas, existe el riesgo de que reproduzcan dichos sesgos. De esta manera, la tecnología podría convertirse en un espejo que refleja y perpetúa estereotipos negativos.

Cuando interactuamos con asistentes virtuales, tendemos a asignarles un género. Varios estudios indican que las asistentes percibidas como femeninas son frecuentemente asociadas con roles de cuidado y cooperación, mientras que aquellas consideradas masculinas son vistas como más competentes en tareas técnicas.

Agresiones hacia asistentes virtuales femeninas

Un dato alarmante revela que entre el 10 % y el 44 % de las conversaciones con agentes conversacionales femeninos incluyen lenguaje abusivo, incluyendo expresiones sexualmente explícitas. Esto indica que los comportamientos agresivos observados hacia mujeres también se trasladan a interacciones con bots femeninos.

A pesar de esta realidad, asistentes como Siri o Alexa no logran identificar comentarios sexistas o inapropiados. Las respuestas programadas oscilan entre flirteos y evasivas, lo que refuerza patrones tradicionales asociados al comportamiento femenino: simpatía y servidumbre.

Necesidad de una educación con perspectiva de género

Ante esta problemática, es crucial implementar soluciones que incluyan educación y concienciación desde edades tempranas. Además, es esencial incorporar una perspectiva de género en carreras STEM, donde la representación femenina sigue siendo escasa. Según datos de UNESCO, solo un 12 % de los investigadores en inteligencia artificial son mujeres.

Para abordar esta situación es vital contar con mujeres en posiciones decisionales dentro del ámbito tecnológico. La combinación de investigación lingüística para detectar patrones sexistas junto con un diseño ético en inteligencia artificial puede contribuir significativamente a mitigar estos riesgos.

Caminos hacia un futuro más equitativo

La labor debe enfocarse tanto en eliminar sesgos del lenguaje utilizado para entrenar modelos como en asegurar una representación femenina adecuada en el desarrollo tecnológico. La educación con perspectiva de género será fundamental para transformar la inteligencia artificial en una aliada contra la violencia hacia las mujeres.

Mª Milagros del Saz Rubio, profesora titular del Departamento de Lingüística Aplicada de la UPV, subraya la importancia crítica del enfoque ético y educativo para combatir esta forma moderna de agresión.

La noticia en cifras

Cifra Descripción
10 % - 44 % Porcentaje de conversaciones con agentes conversacionales femeninas que incluyen lenguaje abusivo.
12 % Porcentaje de investigadores en inteligencia artificial que son mujeres.
6 % Porcentaje de desarrolladores de software que son mujeres.
20 % Porcentaje de empleadas en puestos técnicos en empresas de aprendizaje automático que son mujeres.

Preguntas sobre la noticia

¿Cómo se manifiesta el maltrato verbal hacia las mujeres en redes sociales?

El maltrato verbal hacia las mujeres en redes sociales se manifiesta a través de comportamientos violentos, comentarios agresivos y el uso de imágenes, emojis o memes ofensivos. Las interacciones digitales fomentan estos comportamientos debido al anonimato y la impunidad que ofrecen.

¿Qué impacto tiene la inteligencia artificial en los sesgos de género?

La inteligencia artificial puede reproducir los sesgos presentes en los datos con los que se entrena. Esto significa que si los modelos del lenguaje son alimentados con datos sesgados, perpetuarán esos estereotipos y patrones de agresión hacia las mujeres.

¿Qué ocurre con las asistentes virtuales y el lenguaje abusivo?

Entre el 10 % y el 44 % de las conversaciones con agentes conversacionales femeninas incluyen lenguaje abusivo, incluidas expresiones sexualmente explícitas. Esto indica que los comportamientos agresivos hacia las mujeres se trasladan a las interacciones con bots femeninos.

¿Cómo responden las asistentes virtuales ante comentarios sexistas?

Las asistentes virtuales como Siri y Alexa no son capaces de identificar comentarios sexistas o inapropiados. Sus respuestas suelen ser evasivas o incluso coquetas, lo que normaliza patrones de conducta agresiva hacia las mujeres.

¿Cuál es la solución propuesta para combatir el maltrato verbal en IA?

Se propone una combinación de educación con perspectiva de género desde edades tempranas, inclusión de mujeres en carreras STEM y ética en el diseño de inteligencia artificial para minimizar riesgos y hacer que la tecnología sea aliada en lugar de enemiga.

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios