El uso de la inteligencia artificial en medicina sigue siendo un tema de debate intenso, especialmente cuando se trata de situaciones delicadas y con alto contenido ético, como los cuidados paliativos o la eutanasia. Un estudio internacional reciente, dirigido por la Universidad de Turku en Finlandia, reveló que las personas están más dispuestas a aceptar decisiones médicas sobre el final de la vida tomadas por humanos que por sistemas automáticos, como la IA o los robots.
El estudio, publicado en la revista Cognition, se llevó a cabo en tres países: Finlandia, Chequia y Gran Bretaña. Los participantes fueron expuestos a escenarios médicos en los que se tomaban decisiones sobre la eutanasia de pacientes en coma, y se les pidió que evaluaran la ética de esas decisiones dependiendo de si las tomaba un médico, un robot o una IA.
El «efecto de asimetría del juicio moral humano-robot»
Los resultados del estudio fueron sorprendentes. Los participantes mostraron una clara preferencia por las decisiones tomadas por médicos humanos, incluso cuando los sistemas automatizados cumplían funciones de asesoramiento. Según el profesor Michael Laakasuo, líder del estudio, este fenómeno es conocido como «efecto de asimetría del juicio moral humano-robot», donde las personas perciben las decisiones de la IA como más rígidas o menos éticas que las tomadas por humanos.
El estudio sugiere que la falta de competencia percibida en la IA para tomar decisiones éticas es una de las razones principales de este escepticismo. Aunque la IA pueda procesar grandes cantidades de datos y ofrecer recomendaciones objetivas, su capacidad para explicar y justificar sus decisiones sigue siendo limitada, lo que hace que las personas desconfíen de su aplicabilidad en decisiones de vida o muerte.
La percepción de la competencia humana frente a la Inteligencia Artificial
El estudio también profundizó en el hecho de que los humanos son percibidos como tomadores de decisiones más competentes que los sistemas automatizados. Esto es especialmente relevante en situaciones de alta carga emocional y ética, como las decisiones sobre el final de la vida. Los participantes mostraron más confianza en las decisiones de los médicos humanos que en las de la IA, lo que refleja una profunda creencia en la necesidad de la empatía, la experiencia y el juicio humano en estos casos.
Sin embargo, la investigación también reveló que la situación cambia cuando los pacientes son autónomos en sus decisiones. En los escenarios donde los pacientes solicitaban activamente la eutanasia, como en el caso de una inyección letal, la diferencia de aceptación entre los humanos y la IA se redujo considerablemente. Esto sugiere que la autonomía del paciente juega un papel crucial en la forma en que las personas aceptan las decisiones médicas, independientemente de si son tomadas por humanos o sistemas automatizados.
Implicaciones para el futuro de la IA en la medicina
Los hallazgos del estudio tienen implicaciones significativas para el futuro de la IA en el campo de la salud. A medida que la tecnología avanza, es fundamental comprender cómo las personas perciben la ética y la moral en la toma de decisiones automatizada. Si bien la IA tiene el potencial de mejorar la eficiencia y la precisión en la atención médica, la aceptación de su uso en decisiones críticas dependerá en gran medida de su capacidad para ganarse la confianza del público y garantizar que los principios éticos fundamentales, como la autonomía del paciente, se respeten.
El estudio concluye que, si bien la IA tiene el potencial de ser una herramienta útil en la atención médica, debe estar acompañada de un enfoque ético y humano en su implementación. «Las personas perciben la participación de la IA en la toma de decisiones de forma muy diferente a cuando un humano está al mando», afirma Laakasuo. Esto destaca la importancia de considerar no solo los avances tecnológicos, sino también los aspectos humanos y éticos al integrar la IA en el ámbito médico.