hr bot factory es ahora Velora!

Descubre la suite de gestión de talento que te hace la vida más fácil.

¡Ponte en contacto con nosotros!

Te ayudamos a automatizar las tareas administrativas para que puedas invertir tu tiempo en crear valor para tu equipo y compañía.

👏🏼Estás un paso más cerca de revolucionar tus RRHH.
¡En breve nos pondremos en contacto contigo!

El lado humano de la IA: también se equivoca.

portada blog

En algún momento todos hemos cometido un error, y aunque a veces puede ser frustrante, son una parte importante del aprendizaje y desarrollo. Los errores nos proporcionan oportunidades para ajustar el comportamiento y mejorar la capacidad para enfrentarnos desafíos en el futuro.

Lo mismo pasa con la Inteligencia Artificial: los sistemas de IA se entrenan y aprenden a partir de grandes cantidades de datos y a pesar de su capacidad para procesar y aprender de estos datos a velocidades increibles, no son infalibles.

A continuación presentamos algunos errores destacables que ha presentado esta tecnologías en sus primeras aplicaciones en algunos sectores:

1. ARRUINA RETRANSMISIÓN FUTBOL.

El equipo de fútbol escocés Inverness Caledonian Thistle FC anunció que prescindiría de los operadores de cámara humanos para retransmitir los partidos y en su lugar usarían cámaras autónomas gracias a la IA.

El primer partido en el que se estrenó, sucedió lo que nadie se esperaba; las cámaras inteligentes se liaron cuando, en la puesta, además del balón apareció un juez de línea con la cabeza calva.

La cámara IA confundió la cabeza calva del árbitro con la pelota durante gran parte del partido, lo que provocó que el plano siguiese continuamente al hombre en lugar de retransmitir el juego real.

2. CHATBOT RACISTA.

Microsoft desarrolló a Tay, un chatbot basado en IA que se alimentaba de conversaciones de personas entre 18-24 años en Twitter.

¿Qué pasó? Algunos usuarios decidieron usar métodos para que el bot incorporara algunas palabras y frases inapropiadas en su vocabulario, haciendo que respondiera con comentarios racistas e incluso nazis.

Finalmente, Microsoft tuvo que pausar a Tay por completo. "Cuando más hables con él, más inteligente se vuelve Tay. El problema es que Tay, si bien implementa filtros para palabras malsonantes, no estaba preparado para algo muy importante: el lado más oscuro y "troll" de Internet."

3. IA DE SELECCIÓN SEXISTA.

Amazon decidió poner gran parte del peso de sus procesos de contratación de personal en manos de IA. Sin embargo, se descubrió que esta IA discriminaba sistemáticamente a las mujeres.

El motivo de esta discriminación es que la IA estaba entrenada con los perfiles de antiguos candidatos que habían intentado trabajar en la empresa durante los últimos 10 años, que mostraban un dominio masculino dentro del sector.

La inteligencia artificial de Amazon aprendió así que los hombres eran mejores candidatos que las mujeres y penalizaba los currículums que contenían palabras como "mujer". Cuando los ingenieros se dieron cuenta de esta tendencia, volvieron a configurar la lógica de la inteligencia artificial para que no tuviese en cuenta esos términos.

Indudablemente, nuestro mundo está inmerso en un constante proceso de evolución tecnológica, y la interacción entre los seres humanos y la Inteligencia Artificial marca un hito crucial en este camino. Tanto los sistemas de IA como las personas tienen sus limitaciones, por lo que recae sobre nosotros la responsabilidad de detectar las posibles imperfecciones en los algoritmos.

La convivencia con la Inteligencia Artificial nos brinda oportunidades para crecer, adaptarnos y evolucionar junto a ella. Cuanto más la instruyamos y nutramos con conocimiento, más perfecta será.

Solicita tu Demo

¡Gracias!

Hemos recibido correctamente su mensaje y nos pondremos en contacto contigo en breve.
Oops! Something went wrong while submitting the form.