Inicio NOTICIAS La IA se está explicando a los humanos. Y está dando...

La IA se está explicando a los humanos. Y está dando sus frutos

50
0

LinkedIn de Microsoft Corp incrementó los ingresos por suscripciones en un 8% después de armar a su equipo de ventas con un software de inteligencia artificial que no solo predice a los clientes en riesgo de cancelar, sino también
explica cómo llegó a su conclusión. El sistema, presentado en julio pasado y que se describirá en una publicación de blog de LinkedIn el miércoles, marca un gran avance para lograr que la IA «muestre su trabajo» de una manera útil.

Si bien los científicos de IA no tienen problemas para diseñar sistemas que hagan predicciones precisas sobre todo tipo de resultados comerciales, están descubriendo que para hacer que esas herramientas sean más efectivas para
operadores humanos, la IA puede necesitar explicarse a sí misma a través de otro algoritmo. El campo emergente de «IA explicable», o XAI, ha estimulado una gran inversión en Silicon Valley a medida que las nuevas empresas y los gigantes de la nube compiten para hacer que el software opaco sea más comprensible y ha avivado el debate en Washington y Bruselas, donde los reguladores quieren garantizar que se tomen decisiones automatizadas. de manera justa y transparente.

La tecnología de IA puede perpetuar sesgos sociales como los relacionados con la raza, el género y la cultura. Algunos científicos de IA ven las explicaciones como una parte crucial para mitigar esos resultados problemáticos. Los reguladores de protección al consumidor de EE. UU., incluida la Comisión Federal de Comercio, han advertido durante los últimos dos años que la IA que no es explicable podría ser investigada. La UE podría aprobar el próximo año la Ley de Inteligencia Artificial, un conjunto de requisitos integrales que incluyen que los usuarios puedan interpretar predicciones automatizadas.

Los defensores de la IA explicable dicen que ha ayudado a aumentar la eficacia de la aplicación de la IA en campos como la atención médica y las ventas. Google Cloud vende servicios de inteligencia artificial explicables que, por ejemplo, les dicen a los clientes que intentan afinar sus sistemas qué píxeles y, luego, qué ejemplos de capacitación fueron más importantes para predecir el tema de una foto.

Pero los críticos dicen que las explicaciones de por qué la IA predijo lo que hizo son demasiado poco confiables porque la tecnología de IA para interpretar las máquinas no es lo suficientemente buena. LinkedIn y otros que desarrollan IA explicable reconocen que cada paso del proceso: analizar predicciones, generar explicaciones, confirmar su precisión y hacerlos procesables para los usuarios, todavía tiene margen de mejora. Pero después de dos años de prueba y error en una aplicación de riesgo relativamente bajo, LinkedIn dice que su tecnología ha dado un valor práctico.

Leer:  China dice que Australia, Reino Unido y EE. UU. Pagarán el precio de los 'actos indebidos'

Su prueba es el aumento del 8% en las reservas de renovación durante el año fiscal actual por encima del crecimiento esperado normalmente. LinkedIn se negó a especificar el beneficio en dólares, pero lo describió como considerable. Antes, los vendedores de LinkedIn confiaban en su propia intuición y en algunas alertas automáticas irregulares sobre la adopción de servicios por parte de los clientes.

Ahora, la IA maneja rápidamente la investigación y el análisis. Apodado CrystalCandle por LinkedIn, destaca tendencias desapercibidas y su razonamiento ayuda a los vendedores a perfeccionar sus tácticas para mantenerse en riesgo.
clientes a bordo y presentar a otros sobre las actualizaciones. LinkedIn dice que las recomendaciones basadas en explicaciones se han expandido a más de 5,000 de sus empleados de ventas que abarcan
ofertas de contratación, publicidad, marketing y educación.

“Ha ayudado a los vendedores experimentados al brindarles información específica para navegar conversaciones con prospectos. También ha ayudado a los nuevos vendedores a sumergirse de inmediato”, dijo Parvez.
Ahammad, director de aprendizaje automático de LinkedIn y jefe de investigación aplicada de ciencia de datos.

¿Explicar o no explicar?

En 2020, LinkedIn había proporcionado por primera vez predicciones sin explicaciones. Una puntuación con un 80 % de precisión indica la probabilidad de que un cliente que se renovará pronto actualice, retenga
constante o cancelar. Los vendedores no estaban completamente convencidos. El equipo que vendía el software de reclutamiento y contratación Talent Solutions de LinkedIn no tenía claro cómo adaptar su estrategia, especialmente cuando las probabilidades de que un cliente no renovara no eran mejores que tirar una moneda.

En julio pasado, comenzaron a ver un breve párrafo generado automáticamente que destaca los factores que influyen en la puntuación. Por ejemplo, la IA decidió que era probable que un cliente se actualizara porque creció en 240 trabajadores durante el año pasado y los candidatos se volvieron un 146 % más receptivos en el último mes. Además, un índice que mide el éxito general de un cliente con las herramientas de contratación de LinkedIn aumentó un 25 % en los últimos tres meses.

Leer:  Nueva Zelanda no enviará diplomáticos a los Juegos Olímpicos de Beijing, citando COVID-19

Lekha Doshi, vicepresidente de operaciones globales de LinkedIn, dijo que, según las explicaciones, los representantes de ventas ahora dirigen a los clientes a capacitación, soporte y servicios que mejoran
su experiencia y mantenerlos gastando. Pero algunos expertos en IA cuestionan si las explicaciones son necesarias. Incluso podrían hacer daño, generando una falsa sensación de seguridad en la IA o provocando sacrificios de diseño que hacen que las predicciones sean menos precisas, dicen los investigadores.

Fei-Fei Li, codirectora del Instituto de Inteligencia Artificial centrada en el ser humano de la Universidad de Stanford, dijo que las personas usan productos como Tylenol y Google Maps, cuyo funcionamiento interno
no se entienden perfectamente. En tales casos, las pruebas y el seguimiento rigurosos han disipado la mayoría de las dudas sobre su eficacia. Del mismo modo, los sistemas de IA en general podrían considerarse justos incluso si
las decisiones individuales son inescrutables, dijo Daniel Roy, profesor asociado de estadística en la Universidad de Toronto.

LinkedIn dice que la integridad de un algoritmo no se puede evaluar sin comprender su pensamiento. También sostiene que herramientas como CrystalCandle podrían ayudar a los usuarios de IA en otros campos. Los médicos podrían saber por qué AI predice que alguien tiene más riesgo de contraer una enfermedad, o se les podría decir a las personas por qué AI recomendó que se les niegue una tarjeta de crédito. La esperanza es que las explicaciones revelen si un sistema se alinea
con conceptos y valores que uno quiere promover, dijo Been Kim, investigador de IA en Google. “Considero que la interpretabilidad permite, en última instancia, una conversación entre máquinas y humanos”, dijo. “Si realmente queremos habilitar la colaboración hombre-máquina, lo necesitamos”.

Artículo anteriorHSBC lanza cartera de metaversos para clientes asiáticos adinerados
Artículo siguienteRobot japonés puede pelar plátanos limpiamente la mayor parte del tiempo