TITULO:
A Crush, la pasta te aplasta - Antonio José y Jerry Di cantan en directo Pirata,.
El viernes-23-Abril a las 22:00 por La 1, foto,.
Antonio José y Jerry Di cantan en directo Pirata,.
El cantante cordobés cierra la temporada de "Un año de tu vida" con su último éxito, con el que potencia su imagen en Latinoamérica de la mano del artista colombiano.
La música en directo, una de las señas de identidad de Un año de tu vida, pone broche final a la temporada y lo hace con Antonio José, acompañado por el cantante y compositor colombiano Jerry Di. Juntos han estrenado este año el single "Pirata", compuesto por ambos David Lorduy y Tezzel.
Con seis discos en el mercado, "Pirata" es el último trabajo donde ambos artistas valoran la unión de la música española y latina. Jerry Di y Antonio José se conocieron en Medellín, Colombia, con unos amigos comunes. El tema está sonando muy fuerte en Latinoamérica.
TITULO: PUERTA CON PUERTA CANAL EXTREMADURA - La Garrovilla .
Puerta con puerta - La Garrovilla ,.
Puerta con Puerta llega en esta ocasión a La Garrovilla, población pacense a escasos 20 kilómetros al oeste de Mérida. Visitaremos algunos de los lugares con más encanto de la localidad, como el 'Hotel Cerro Príncipe' o el bar 'Alhambra'. Los garrovillanos son unos grandes aficionados al fútbol, lo comprobamos con dos de los equipos de la localidad. Además, conoceremos a uno de sus vecinos más activos y entrañales: Pepe Sopas.
TITULO: Trastos y tesoros - CANAL EXTREMADURA - La UDG Tenerife rompe el partido en la primera parte y gana al Santa Teresa,.
La UDG Tenerife rompe el partido en la primera parte y gana al Santa Teresa,.
foto / La UDG Tenerife gana este sábado al Santa Teresa Badajoz (3-1), en el estadio de La Palmera. Cristina Martín-Prieto y María José por partida doble hicieron los goles y sitúan al representativo en una provisional quinta posición en la Primera Iberdrola. Los tres tantos locales se firmaron en el primer tiempo.
Tras unos primeros compases de estudio mutuo y con imprecisiones, en la primera acción clara para las guerreras, Martín-Prieto abrió el camino hacia el triunfo, con un derechazo ajustado al palo, imparable. Un tanto que dio alas al equipo de Francis Díaz y que fue a por más. Aleksandra estuvo cerca de anotar un golazo en una jugada individual cuando transcurrían quince minutos, y poco después, María José firmaría uno de los tantos de la temporada, gracias a un bonito escorzo en el aire para poner tierra por medio.
En menos de una media hora de juego las guerreras habían encarrilado el triunfo, pero no había margen para la relajación. Pleuler pudo anotar el tercero llegando desde segunda línea a los treinta y siete minutos, finalizando una jugada muy bien combinada, previo servicio de Pisco. Poco después de que Aline desbaratara la única oportunidad de peligro en la primera mitad por parte de las visitantes, de nuevo María José batía a Aguirre. Un gol que precedió al pitido del descanso, y con sensación de superioridad a falta de cuarenta y cinco minutos para el final.
Una vez reanudado el encuentro y sin Martín-Prieto sobre el césped a causa de unas molestias físicas que arrastraba desde los primeros minutos, las guerreras vieron como el Santa Teresa Badajoz daba un paso adelante y recortaba distancias por medio de su capitana, Estefa Lima. Batió a Aline Reis en un mano a mano a los cincuenta y dos minutos, poco antes de que María José rozara el ‘hattrick’, pero Aguirre evitaba otro soberbio gol de la delantera tinerfeña. Las fuerzas se habían equilibrado y a las guerreras les costaba pisar área rival, pero tras unos compases de empuje del rival azul y blanco, llegó una triple ocasión para las locales, con disparo de Estella al larguero incluido.
Con el triunfo en el bolsillo, todo eran buenas noticias. Volvió a tener minutos Jackie Simpson tras tres meses de baja por lesión (e incluso pudo anotar un gol antológico en el último suspiro) y una vez sonó el pitido final, alegría plena. 50 puntazos y la sensación del deber hecho, con creces. Próximos escollos, FC Barcelona y Levante UD.
TITULO:
Domingo -25- Abril - LA SEXTA TV -Ambulancias, en el corazón de la
ciudad - Salvé muchas vidas, porque era muchísima la gente que se bañaba y no sabía nadar ,. | |
El domingo -25- Abril - a las 21:30 por La Sexta, foto,. |
Salvé muchas vidas porque la gente se bañaba en el río sin saber nadar,.
Juan Peinado | Clemens Fue socorrista de la playa 'Amigos del Guadiana',.
En los años 70 fue socorrista en el Guadiana. Ahora, con 67 años, sigue pegado al agua: nada, es piragüista y recorre las dos orillas en bici y en patines,.
De padre jiennense y madre sevillana, Juan Peinado Clemens nació en Tetuán. Eran los tiempos en los que allí se cobraba más. Llegó a Badajoz con 6 años y desde entonces, ahora tiene 67, no se ha movido de aquí. La culpa, dice, es del Guadiana, al que ningún mar ha conseguido quitarle el puesto de su lugar favorito en el mundo.
La foto de Aylan fue la gota que colmó el vaso. Como millones de europeos, aquel septiembre de 2015 Manuel Blanco, Julio Latorre y Quique Rodríguez se revolvieron ante el televisor, incómodos con la pasividad de los gobiernos ante la tragedia de los refugiados sirios, asqueados por la crueldad del mundo. La imagen de aquel cuerpecito inerte bañado por las olas en una playa de Turquía, uno más entre los cientos de migrantes engullidos aquellos días por las aguas del Mediterráneo, les decidió a hacer algo. Algo más que su trabajo cotidiano como bomberos en Sevilla, es decir, salvar las vidas de sus conciudadanos en incendios o accidentes. En diciembre de aquel año viajaron a Grecia para ofrecer su ayuda a través de la ONG Proem-Aid (Professional Emergency Aid) y en las semanas siguientes rescataron a decenas de hombres, mujeres y niños de las aguas heladas. Y, de pronto, se encontraron en un calabozo en la isla de Lesbos acusados de tráfico de personas. Tres días después los soltaron, bajo fianza, con un cargo por contrabando de migrantes en grado de tentativa, que llevaba aparejado una pena de diez años de prisión. Más de dos años después, un tribunal de Mitilene los dejó ayer en libertad. «Salvar vidas no es delito», se felicitó el sargento de bomberos de la Diputación hispalense Manuel Blanco a su salida del Juzgado, tras ocho tensas horas de vista.
Los bomberos sevillanos no comprenden qué ocurrió el 14 de enero de 2016. Hasta ese momento, sus relaciones con las autoridades griegas habían sido fluidas: al llegar a Lesbos, se pusieron a disposición de los funcionarios locales. Aprovechando días de vacaciones y permisos, los voluntarios se organizaban por turnos para asistir a los refugiados cuyas embarcaciones zozobraban en el mar. Enfundados en sus trajes de neopreno, salvaron del ahogamiento y del frío a muchos desesperados que se lanzaban al Egeo huyendo de la guerra o la miseria para tratar de alcanzar suelo europeo. «Lo peor son los niños -asegura Blanco-. Llegan en estado de 'shock', aterrorizados, empapados, muchos con hipotermia».
Aquel día recibieron una petición de ayuda de una organización danesa, Team Humanity, para rescatar un bote a la deriva. Como su embarcación estaba averiada, se unieron a la tripulación de los nórdicos, pero al llegar al lugar del supuesto naufragio no encontraron nada, así que emprendieron el camino de regreso. Entonces fueron interceptados por una patrullera griega, que les escoltó hasta el puerto y, una vez en tierra, se los llevó detenidos, junto a los activistas daneses. Estuvieron 72 horas encerrados en un calabozo y quedaron en libertad con cargos tras pagar una fianza de 15.000 euros. «Es la criminalización de la acción humanitaria. En estos 45 días hemos ayudado a 15.000 personas. Y queremos seguir ayudando», lamentaban a su regreso a la capital hispalense.
Ahora podrán seguir haciéndolo. Arropados por una nutrida representación española, los bomberos entraron a los juzgados como acusados a las nueve y media de la mañana y salieron libres a las cinco y cuarto de la tarde. Agotados pero felices, quisieron agradecer el apoyo de las instituciones -el Parlamento Europeo, el Gobierno central, la Junta de Andalucía, la Diputación y el Ayuntamiento sevillanos, para los que trabajan- y la gente corriente, cuyo calor les ha llegado de todas partes del mundo.
«Nos han quitado de encima una losa de 2.000 kilos», admitía Blanco. Incluso justificó el minucioso trabajo del juez y el fiscal griegos, que los sometieron a un interrogatorio «incisivo»: «Era un proceso complicado, porque había que definir si se estaba traficando o no con personas».
«Salvar vidas no es delito. Lo ha dicho el juez, y eso tiene muchas más implicaciones que nuestra libertad -argumentó ante los medios españoles desplazados a la capital de Lesbos-. En la crisis de los refugiados, la mejor cara de Europa la hemos representrado voluntarios, independientemente de que vistiéramos de naranja, de rojo o de azul».
Su compañero Quique Rodríguez, emocionado, confesaba haber soltado «alguna lágrima que otra». «Por fin podemos descansar, porque parecía que esto no se acababa nunca», explicó en alusión a los dos años de procedimiento judicial que ayer se cerraron.
Proem-Aid está formada por 200 voluntarios con experiencia profesional especialmente útil en este tipo de misiones -sanitarios, bomberos, buceadores y nadadores de rescate-, que organizan sus periodos de asueto para realizar turnos de quince días en estas misiones. La detención de sus compañeros no les detuvo. Después de rescatar a un millar de personas de una muerte segura y de ayudar a otras 50.000 a llegar a tierra, en agosto de 2017 dieron por finalizada su misión en aguas griegas.
Proyecto 'Aita Mari'
Su presidente, Onio Reina, explica que, ahora que el flujo de migrantes en el Egeo se ha reducido y las autoridades griegas han tomado las riendas de los rescates, la ONG se plantea como objetivo el Mediterráneo Central, una tumba aún más profunda para los sueños de miles de desesperados. A diferencia de los migrantes que se lanzan al mar desde Turquía para pisar suelo heleno, quienes parten de Libia con Italia en el horizonte ni siquiera ven tierra. El agua se ha tragado en ese tránsito a 12.000 personas entre 2015 y 2017, y otras 400 este año, según datos de la Organización Mundial para las Migraciones y ACNUR.
La ONG sevillana, junto a la guipuzcoana Salvamento Marítimo Humanitario, fletó en septiembre pasado un barco con el que rescataron a 580 personas en esta zona hasta fin de año. Su intención es renovar «lo antes posible» este proyecto, que han bautizado 'Aita Mari', en recuerdo del marino vasco José María Zubía, famoso por sus rescates.
Los tres bomberos dan por terminada esta pesadilla judicial, pero no su misión. «Mientras podamos, vamos a seguir. Por falta de fuerzas no va a ser. En el Mediterráneo siguen muriendo personas», advierte Manuel Blanco.
- ¿Ha merecido la pena?
- Por supuesto. Somos bomberos y nuestro trabajo es salvar vidas. Lo llevamos en la sangre.
TITULO:
CAFE
GIJON - MANZANAS VERDES - Cuéntame cómo pasó -Hay que desmontar la casa ,.
CAFE GIJON,.
CAFE GIJON,.
Café Gijón - foto,.
MANZANAS VERDES - Cuéntame cómo pasó - ,.
MANZANAS VERDES - Cuéntame cómo pasó - Hay que desmontar la casa . fotos,.
Cuéntame cómo pasó - Hay que desmontar la casa,.
En 2020, los hijos se plantean vender la casa de Sagrillas, aunque no todos están de acuerdo. En la casa se acumulan muchos recuerdos.
Mientras, en 1993, Antonio y Mercedes están bien juntos, pero ella es reacia a que se instale en casa. Cree que si viven juntos la relación puede acabar estropeándose.
Por otro lado, Antonio cumple años y ha decido reunir a toda la familia en una comida para celebrarlo. Pero los hijos parece que están muy ocupados. Inés está trabajando en unos cursos de español. Además, Oriol se ha ido a vivir a Cuenca con Carola e Inés va a visitarle. Toni está muy ocupado con su trabajo en Moncloa. Y él y Deborah se han comprado un chalet que están arreglando. A su mujer le hace mucha ilusión, pero Toni no se acaba de ver viviendo como “pijos”.
TITULO: LA AVENTURA DEL SABER TVE - ¿Es Google machista? ,.
¿Es Google machista?
Los algoritmos que rigen la inteligencia artificial replican y amplían los clichés de género aprendidos del análisis masivo e indiscriminado de datos,.
foto / Tiene un amigo invisible que empieza a darle consejos y a tomar decisiones que le afectan sin que quizá sea del todo consciente. ¿Lo sabía? A veces, su intervención no va más allá de sugerirle cada noche que vea una u otra serie en su plataforma favorita. Pero hay ocasiones en las que podría descartar su currículo en el proceso de selección de una gran empresa al considerar que no es adecuado para el puesto. Este compañero, sin rostro ni nombre, es la Inteligencia Artificial (IA), una tecnología que se ha instalado sin hacer ruido en la vida cotidiana de una sociedad cada vez más digital.
Sin hacer ruido... o casi, porque lo cierto es que su comportamiento, desarrollado a base de analizar ingentes cantidades de datos a través de algoritmos matemáticos, empieza a dar que hablar. Las alarmas han saltado cuando se ha visto que toma decisiones viciadas por prejuicios de género e, incluso, raciales. Algo que puede llegar a traducirse en una discriminación de minorías en no pocos aspectos de la vida, si se tiene en cuenta todos aquellos que ya están 'tocados' por estos algoritmos.
No son pocos. De hecho, a estas alturas, resulta ingenuo pensar que esta tecnología nada tiene que ver con nuestro mundo. Tanto, como no preguntarse: ¿quién está entrenando a esta nueva Inteligencia?, ¿con qué objetivo?, ¿cómo está aprendiendo y cómo alcanza sus conclusiones? Algunas respuestas son conocidas; otras, por desgracia, son tan crípticas como los propios algoritmos matemáticos por los que se rige.
¿Dónde está la nueva tecnología?
No son pocas sus aplicaciones. Los asistentes de voz (Siri o Alexa) funcionan a base de ellos; la lista de sugerencias de Spotify o de Netflix, también; las actualizaciones y notificaciones de todas las redes sociales aplican esta tecnología que, además, está detrás del orden en el que aparecen los resultados en el buscador de Google, así como de los anuncios que este muestra. Los 'chatbots' que asisten durante la compra 'online' de un billete de Renfe y el reconocimiento facial para identificar al pasaje del avión son igualmente Inteligencia Artificial en estado puro. Hasta Hacienda se apoya en ella para procesar toda la información de los contribuyentes.
Una de las claves para entender por qué un algoritmo puede presentar un sesgo de género y llegar a conclusiones machistas está en su propio funcionamiento. Al estar basado en analizar información para alcanzar una conclusión y resolver los problemas que se le planteen, si los datos que chequean están viciados de origen los resultados replicarán (y ampliarán) esta tara.
Esto puede suceder por dos motivos: porque la recopilación indiscriminada y sin tratamiento que hace la máquina de los datos masivos arrojados por infinitos usuarios de la red y sus aplicaciones reflejen ese sesgo impregnado en la propia sociedad; o porque en la selección de esta información y la definición de modelos diseñados por los programadores ya estén sesgadas de origen, al no haberse tenido en cuenta la perspectiva de género.
En Ciencia, esto no es nuevo. Lorena Fernández, directora de Identidad Digital de la Universidad de Deusto, experta en cuestiones de Género y Tecnología, recuerda un caso paradigmático: «Los Crash Test Dummies se hacían con maniquíes que solo replicaban el físico masculino. Por ejemplo, no contemplaban que el conductor fuese una embarazada». ¿Resultado? El número de muertes era superior en mujeres hasta que los test se adecuaron también a la anatomía femenina.
Del mismo modo, los algoritmos de herramientas que emplean la IA como los traductores de Google o Microsoft interpretan que los ingenieros son hombres y las enfermeras mujeres. Este, el traductor, ha sido de hecho la primera herramienta puesta en evidencia. Londa Shiebinger, investigadora de la Universidad de Stanford y líder del proyecto de la Comisión Europea Gendered Innovations, fue una de las primeras voces en denunciar que el traductor utiliza el pronombre masculino por defecto. «Me di cuenta cuando introduje un artículo que hablaba sobre mí y por defecto traducía él dijo, en vez de ella dijo. Nos preguntamos por qué ocurría esto y descubrimos que, como Google Translate funciona mediante un algoritmo, el problema es que 'él dijo' aparece en internet el cuádruple de veces que 'ella dijo', por lo que la máquina acertará más veces si elige 'él dijo'. El algoritmo está preparado para actuar de esa manera. Así que nos dirigimos a Google y les dijimos: «Oye, ¿qué pasa con esto?», y nos contestaron: «Anda, ¡no teníamos ni idea!». Reconocimos que hay un sesgo inconsciente de género», cuenta.
«Si el entrenamiento se hace con datos de Internet sin analizar, traemos lo que haya históricamente –no solo en estos años– en la sociedad y volvemos a traer problemas superados como el machismo y el racismo a la IA» Chema alonso | experto en inteligencia artificial, director del área de consumo de telefónica y hacker
«La solución pasa por que los equipos, los datos y las empresas implicadas en el desarrollo de los algoritmos en los que se basan estas tecnologías sean más diversos e incorporen la perspectiva de género» Lorena fernández | directora de identidad digital de la universidad de deusto y experta en género y tecnología
«Nos dimos cuenta del sesgo al ver cómo en un texto largo que hablaba sobre mí el traductor decía sistemáticamente 'él dice' en vez de 'ella dice'. Avisamos a Google y reconoció no tener ni idea de que esto sucedía» Londa Shiebinger | catedrática de stanford y líder del proyecto de la comisión europea 'gendered innovations'
Este gigante tecnológico introdujo cambios. Por ejemplo, indicar el doble género en la traducción de idiomas que usan el neutro en algunos casos. «Pero por ahora son parches, medidas reactivas, no proactivas para solucionar un problema. En textos extensos el algoritmo de traducción mantiene el sesgo», advierte Fernández, que también forma parte del proyecto de investigación Gendre Innovations.
Chema Alonso, reputado experto en Inteligencia Artificial y 'hacker', es una de las voces españolas alzadas contra este proceder de los traductores de Google y Microsoft. Como iniciativa personal, y al margen de su cargo en Telefónica al frente de la Unidad Global de Consumo Digital, ha lanzado una iniciativa en 'Change.org' para pedir que esto sea corregido.
Para explicarlo, pone un ejemplo claro. Si se introduce 'The judge told the nurse to take care of the engineer', la traducción automática es: «El juez le dijo a la enfermera que cuidara del ingeniero». La herramienta deduce: «Es más probable que un juez sea hombre, una enfermera mujer y un ingeniero, según mis datos, hombre». Puede ser, a tenor de los datos de mujeres que cursan estas carreras, pero no es ético que haga esta interpretación.
De lo contrario, «manda un mensaje subliminal sesgado de género», denuncia Alonso. «Los creadores de la herramienta –prosigue– deberían informar de que se han asignado los géneros arbitrariamente con algún símbolo visual (subrayado o alerta) para que el usuario sepa que por el texto original no se sabe el género». Y va más allá. Cree que Translate debe ser un instrumento que traduzca lo que se le dé de entrada, sin interpretar. «Si este texto no dice que es hombre o mujer, no debe 'jugar' a averiguar qué es más probable, porque trae sesgos», defiende mientras recuerda que la Inteligencia Artificial quizá no sea una tecnología adecuada para esta función.
La falta de diversidad en datos
- 75%
- Es el porcentaje total de cantidaturas de trabajo a puestos vinculados con la Inteligencia Artificial que corresponden a hombres en EE UU, según recoge el informe publicado por el Ministerio de Igualdad español 'Mujeres y digitalización, de la brecha a los algoritmos'.
- 9%.
- Es el porcentaje de mujeres que hay escribiendo código fuente en España.
- 80%.
- de hombres componen el profesorado universitario dedicado a temas de IA.
- 13%
- de mujeres figuran como autoras en trabajos de investigación sobre la materia.
- 11,95%
- del personal que investiga sobre inteligencia artificial en Microsoft son mujeres. En IBM suponen 15,66% en IBM y enGoogle, la investigación en este campo firmada por ellas solo supone un 11,3%.
Esta tendencia a ampliar prejuicios no es inocua. Recuerda Fernández las profecías autocumplidas que se dan con la IA. «Si un algoritmo señala un barrio como peligroso solo por los datos que maneja, se enviará más policías a este lugar y habrá más detenciones. Así, lo que dijo en un principio, no solo se cumple, sino que se amplía», pone como ejemplo.
Para Alonso el problema está en el tratamiento y la configuración de los datos con los que se entrena esta inteligencia artificial. «Si el entrenamiento se hace con datos de Internet sin analizar, traemos lo que haya históricamente –no solo en estos años– en la sociedad. Es decir, nos 'comemos' la evolución y volvemos a tener problemas superados hace décadas –como el racismo, sexismo, machismo, etc.– traídos por modelos de IA que no sabemos realmente qué y cómo han aprendido».
Esto último es uno de los hechos más inquietantes de esta problemática: realmente nadie sabe a ciencia cierta cuál es el mecanismo que explica a la larga el aprendizaje automático de un modelo de Inteligencia Artificial. Ni sus creadores. «Sigue siendo un área de estudio con muchas incógnitas y retos», valora Alonso.
Otra de las tecnologías que recientemente han sufrido un varapalo por su sesgo han sido las de reconocimiento facial. En su entrenamiento se ha contado con menos rostros de mujeres y, además, menos con la piel oscura. El resultado ha sido que estas herramientas 'inteligentes' fallan más a la hora de identificar, por ejemplo, a mujeres afroamericanas. Amazon, IBM y Microsoft se han topado con este problema y han tenido que replantear sus planes de desarrollo con esta herramienta de IA.
El último estudio, en el algoritmo que recomienda música
Un estudio encuentra sesgo de género en los algoritmos de recomendación musical
Un nuevo trabajo del grupo de investigación en Tecnología Musical de la UPF con la Universidad de Utrecht ha concluido que los algoritmos de recomendación musical de las distintas plataformas digitales también tienen un sesgo de género. Los autores probaron un algoritmo de recomendación musical de uso habitual basado en el filtrado colaborativo y analizaron los resultados de dos conjuntos de datos. En ambos casos vieron que el algoritmo reproduce el sesgo existente en el conjunto de datos, en la que sólo el 25% de los artistas son mujeres. Además, el algoritmo genera un 'ranking' con los artistas para recomendar al usuario. Los autores vieron que en promedio la primera recomendación de una mujer artista se encuentra en la posición 6 ó 7, mientras que la de un hombre artista está en la primera posición. Ferraro, primer autor del artículo añade: «El sesgo en la exposición viene de la forma en que se generan las recomendaciones». Eso significa que las mujeres tienen menos exposición a partir de las recomendaciones del sistema.
¿Se está a tiempo de parar esta deriva? «Es muy difícil y complejo, pero pasaría por una palabra: más diversidad», valora Fernández. De hecho, este asunto ha motivado la salida de varios miembros del departamento de Ética de Google, como Timnit Gebru, colíder junto a Margaret Mitchell, que se quejaron de la falta de diversidad de su equipo, «mayoritariamente formado por hombres blancos», dijeron, así como el tratamiento de los datos. La compañía aludió a motivos disciplinarios por el comportamiento de estos trabajadores.
Esta diversidad debería estar en los datos masivos de entrenamiento (y el tratamiento de los mismos, como vindica Alonso), diversidad en los equipos porque aún hoy las mujeres brillan por su escasez, para que se programen las tecnologías del futuro con perspectiva de géneroy, por último, diversidad de empresas. No hay que perder de vista que el grueso del desarrollo de la Inteligencia Artificial está en manos de solo cinco grandes: Apple, Amazon, IBM, Microsoft y Google.
Para evitar que los algoritmos sigan creciendo torcidos hay dos corrientes: una que defiende la autorregulación de las compañías, y otra la ejercida por las instituciones. Está por ver quién ejercerá el control y qué intereses prevalecerán.
Los traductores y las profesiones
Si introducimos en el traductor de Google y en el de Microsoft la siguiente frase: «Cómo responsable nacional de Google en España aceptó el reto de arreglar el sesgo», en ambos casos se traduce como: Google: «As the national head of Google/Microsoft in Spain he accepted the challenge of fixing bias». Al traducir del inglés al español, sucede igual. «A Cloud Solutions Architect solved the problem». Google y Microsoft traducen como: Un arquitecto de soluciones en la nube entró en la reunión y solucionó el problema».
El currículo de ellas, penalizado por defecto
Amazon tuvo un problema reciente con su algoritmo, que demostró penalizar el curriculum de mujeres que optaban a ofertas de empleo en la empresa, al descartarlos como no aptos. La razón era de género y de profundo calado social. La máquina tomó como dato negativo para valorar la idoneidad para el puesto el hecho de que el candidato registrase periodos de tiempo sin trabajar. De este modo muchas mujeres, por acogerse en su día a bajas maternales, quedaban descartadas de antemano y no participaban en el proceso de selección.
Anuncios de salarios altos solo para ellos
Un equipo de la Universidad de Cornell desarrolló una aplicación para chequear los anuncios en Google. Se crearon 1.000 perfiles ficticios y descubrieron que a los femeninos se les ofrecía menos un anuncio relacionado con trabajos bien remunerados. Concretamente fue mostrado en 1.800 ocasiones a los hombres frente a las 300 veces que apareció en la pantalla de las mujeres. Los investigadores reconocen la imposibilidad de identificar el porqué de estos resultados y conminan a las empresas y organismos públicos a investigarlo.
Errores en el reconocimiento facial
'Sesgo codificado' es el título del último documental emitido por Netflix en el que la investigadora del MIT Joy Buolamwinimite denuncia los fallos de las herramientas de reconocimiento facial cuando se trata de identificar a mujeres o a personas de origen latino y afroamericano. A través de expertos, el trabajo analiza el problema de sesgo de género, racial, geográfico, cultural, etc. que pueden dejar los programadores de forma inconsciente o aprender los algoritmos de los datos recopilados de forma indiscriminada en la red.
Mapas con zancadas masculinas
Google Maps constituye otro buen ejemplo de cómo se han tomado como referencia los estándares masculinos (no los femeninos) para realizar sus cálculos. Para determinar el tiempo que se tarda en llegar andando de un destino concreto a otro, la zancada tomada como referencia es la del hombre. Si atendemos a la media, la realidad es que la masculina es mayor que la femenina. Así que, en términos reales, según Google Maps los trayectos son más cortos para los hombres que las mujeres, que deberán añadir minutos al resultado.
No hay comentarios:
Publicar un comentario