Cómo las aseguradoras pueden eliminar el sesgo inconsciente de la evaluación de riesgos

El sesgo inconsciente es una de las formas en que el cerebro humano da sentido a un entorno complejo. Estos sesgos clasifican la información en categorías para una toma de decisiones más rápida.
En un mundo donde la supervivencia estaba en juego, el sesgo inconsciente a menudo ayudaba a los seres humanos a mantenerse con vida. Las afinidades inconscientes hacia las plantas verdes sanas sobre las marchitas y amarillentas proporcionaron más nutrición, por ejemplo, al tiempo que liberaron energía mental para tareas distintas a evaluar cada planta individualmente.
Hoy, sin embargo, el sesgo inconsciente puede obstaculizar la toma de decisiones efectiva. Entrenada correctamente, la inteligencia artificial (IA) puede ayudar a los profesionales de seguros a eludir los efectos negativos del sesgo subyacente.
IA y sesgo: ¿dónde estamos?
La cobertura mediática del comportamiento sesgado de los algoritmos de inteligencia artificial es una lectura interesante, pero también tiende a oscurecer o distorsionar el estado de la IA y el sesgo tal como existe actualmente.
La IA presenta un riesgo de replicar los sesgos presentes en sus propios datos de entrenamiento. Los estudios sobre el uso temprano de la IA en la contratación, por ejemplo, encontraron que cuando una empresa contrataba principalmente trabajadores de un puñado de escuelas, era más probable que la inteligencia artificial informara que asistir a una de esas escuelas era un factor esencial para el éxito de la contratación. A diferencia de los humanos, la IA no tiene una reserva de experiencia de vida de la que extraer; solo sabe lo que sus datos de entrenamiento pueden decirle.
Conscientes de los riesgos de sesgo en la IA, los investigadores continúan abordando las fuentes de sesgo algorítmico. Tom Bigham y sus colegas investigadores de Deloitte recomiendan que las aseguradoras consideren tres puntos clave al sopesar el uso de IA frente a otras tecnologías para una tarea:
- La IA se basa en un conjunto de datos que cambia continuamente para sus decisiones, lo que puede afectar la forma en que el algoritmo sopesa, o pasa por alto, ciertos factores.
- Los datos de entrada deben ser monitoreados en busca de sesgos, de lo contrario, los modelos de IA tratarán los prejuicios humanos como requisitos objetivos.
- Aquellos que crean y desarrollan soluciones de IA deben considerar el sesgo desde el principio, para que la IA no tenga que adaptarse más adelante.
La conciencia de las preocupaciones sobre el sesgo es una de las mejores formas en que los usuarios humanos pueden prepararse y abordar el sesgo en la IA, y usar la herramienta para combatir eficazmente sus propios sesgos inconscientes.

La cooperación entre humanos y tecnología reduce el sesgo
Combatir el sesgo en la inteligencia artificial no es tan simple como crear conjuntos de datos imparciales o monitorear la creación de procesos de aprendizaje automático. En cambio, las aseguradoras deben considerar todo el contexto en el que operan las herramientas de IA, incluida la forma en que estas herramientas se cruzan con los esfuerzos humanos.
«Si queremos desarrollar sistemas de IA confiables, debemos considerar todos los factores que pueden socavar la confianza del público en la IA. Muchos de estos factores van más allá de la tecnología en sí misma a los impactos de la tecnología», dice Reva Schwartz del Instituto Nacional de Estándares y Tecnología.
Los sistemas de IA operan en contexto. En seguros, ese contexto es el mundo de los profesionales y agentes de seguros, las decisiones tomadas por los clientes y las vastas reservas de datos que respaldan las decisiones de suscripción y distribución. Los profesionales de seguros deben monitorear continuamente los sistemas de IA para garantizar que sus análisis y recomendaciones se adhieran tanto a las buenas prácticas de ciencia de datos como a la ética empresarial de la organización.
El uso efectivo de la inteligencia artificial puede ayudar a combatir los sesgos inconscientes del ser humano de varias maneras:
- La IA puede revelar patrones y tendencias basados en datos, no en suposiciones inconscientes.
- Los resultados de la IA pueden plantear nuevas preguntas que atraen la atención consciente de los sesgos inconscientes, donde los seres humanos pueden combatirlos.
- A través del análisis predictivo, la IA puede ofrecer sugerencias y pronósticos que no dependen de sesgos inconscientes.
Utilizada de manera efectiva, la IA puede combatir las tendencias humanas hacia el sesgo inconsciente. Al hacerlo, la IA puede ayudar a las aseguradoras a proporcionar la cobertura de seguro necesaria mientras equilibran los costos y las reclamaciones, escriben los investigadores Martin Mullins, Christopher P. Holland y Martin Cunneen en una edición de 2021 de Patterns. A medida que el seguro se vuelve más accesible, la brecha del seguro se reduce, lo que reduce el impacto catastrófico de las pérdidas.
Toda la IA es creada por humanos. Como resultado, puede replicar nuestros propios prejuicios. Sin embargo, si se usa cuidadosamente, la IA también puede proporcionar salvaguardas contra nuestro propio comportamiento inconsciente y atajos en la toma de decisiones.
Imágenes de: andreypopov/©123RF.com, milkos/©123RF.com


