El colapso multimillonario de FTX –el importante intercambio de criptomonedas cuyo fundador ahora espera juicio por cargos de fraude– sirve como un crudo recordatorio de los peligros del engaño en el mundo financiero.
Las mentiras del fundador de FTX, Sam Bankman-Fried, se remontan a los inicios de la empresa, dicen los fiscales. Se afirma que mintió tanto a clientes como a inversores como parte de lo que el fiscal federal Damian Williams ha llamado “uno de los mayores fraudes financieros en la historia de Estados Unidos”.
¿Cómo aparentemente se engañó a tanta gente?
Un nuevo estudio publicado en Strategic Management Journal arroja algo de luz sobre el tema. En él, mis colegas y yo descubrimos que incluso los analistas financieros profesionales caen en las mentiras de los directores ejecutivos y que los analistas más respetados podrían ser los más crédulos.
Los analistas financieros brindan consejos expertos para ayudar a las empresas y a los inversores a ganar dinero. Predicen cuánto ganará una empresa y sugieren si comprar o vender sus acciones. Al orientar el dinero hacia buenas inversiones, ayudan a crecer no sólo a las empresas individuales sino a toda la economía.
Pero si bien a los analistas financieros se les paga por sus consejos, no son oráculos. Como profesor de gestión, me preguntaba con qué frecuencia los ejecutivos mentirosos los engañan, por lo que mis colegas y yo utilizamos el aprendizaje automático para descubrirlo. Desarrollamos un algoritmo, entrenado en transcripciones de llamadas de ganancias del S&P 1500 de 2008 a 2016, que puede detectar de manera confiable el engaño el 84% de las veces. Específicamente, el algoritmo identifica distintos patrones lingüísticos que ocurren cuando un individuo miente.
Nuestros resultados fueron sorprendentes. Descubrimos que era mucho más probable que los analistas dieran recomendaciones de “compra” o “compra fuerte” después de escuchar a directores ejecutivos engañosos (casi 28 puntos porcentuales, en promedio) que sus contrapartes más honestas.
También descubrimos que los analistas muy estimados cayeron en las mentiras de los directores ejecutivos con más frecuencia que sus homólogos menos conocidos. De hecho, los analistas nombrados ‘estrellas’ por la editorial institucional Institutional Investor tenían 5,3 puntos porcentuales más probabilidades de ascender a directores generales habitualmente deshonestos que sus homólogos menos famosos.
Aunque aplicamos esta tecnología para conocer mejor este rincón de las finanzas para un estudio académico, su uso más amplio plantea una serie de cuestiones éticas desafiantes en torno al uso de la IA para medir constructos psicológicos.
Predispuesto a creer
Parece contradictorio: ¿por qué los proveedores profesionales de asesoramiento financiero caerían sistemáticamente en la trampa de ejecutivos mentirosos? ¿Y por qué los asesores más reputados parecen tener los peores resultados?
Estos hallazgos reflejan la tendencia humana natural a asumir que los demás son honestos: lo que se conoce como ‘sesgo de verdad’. Gracias a este hábito mental, los analistas son tan susceptibles a las mentiras como cualquier otra persona.
Es más, descubrimos que un estatus elevado fomenta un sesgo de verdad más fuerte. En primer lugar, los analistas “estelares” a menudo adquieren una sensación de exceso de confianza y de tener derechos a medida que aumentan su prestigio. Comienzan a creer que es menos probable que los engañen, lo que los lleva a tomar a los directores ejecutivos al pie de la letra. En segundo lugar, estos analistas tienden a tener relaciones más estrechas con los directores ejecutivos, lo que, según los estudios, puede aumentar el sesgo de verdad. Esto los hace aún más propensos al engaño.
Dada esta vulnerabilidad, es posible que las empresas quieran reevaluar la credibilidad de las designaciones de “estrellas”. Nuestra investigación también subraya la importancia de la rendición de cuentas en la gobernanza y la necesidad de sistemas institucionales sólidos para contrarrestar los sesgos individuales.
¿Un ‘detector de mentiras’ de IA?
La herramienta que desarrollamos para este estudio podría tener aplicaciones mucho más allá del mundo de los negocios. Validamos el algoritmo utilizando transcripciones fraudulentas, artículos retractados en revistas médicas y vídeos engañosos de YouTube. Podría implementarse fácilmente en diferentes contextos.
Es importante señalar que la herramienta no mide directamente el engaño; identifica patrones de lenguaje asociados con la mentira. Esto significa que, aunque es muy preciso, es susceptible tanto a falsos positivos como a negativos, y las falsas acusaciones de deshonestidad en particular podrían tener consecuencias devastadoras.
Es más, herramientas como esta luchan por distinguir las “mentiras piadosas” socialmente beneficiosas (que fomentan un sentido de comunidad y bienestar emocional) de mentiras más serias. Señalar todos los engaños indiscriminadamente podría perturbar dinámicas sociales complejas y provocar consecuencias no deseadas.
Sería necesario abordar estas cuestiones antes de que este tipo de tecnología se adopte ampliamente. Pero ese futuro está más cerca de lo que muchos podrían imaginar: empresas en campos como la inversión, la seguridad y los seguros ya están empezando a utilizarlo.
Quedan grandes preguntas
El uso generalizado de la IA para detectar mentiras tendría profundas implicaciones sociales, en particular, al hacer que a los poderosos les resulte más difícil mentir sin consecuencias.
Esto podría parecer algo inequívocamente bueno. Pero si bien la tecnología ofrece ventajas innegables, como la detección temprana de amenazas o fraudes, también podría dar paso a una peligrosa cultura de transparencia. En un mundo así, los pensamientos y las emociones podrían quedar sujetos a medición y juicio, erosionando el santuario de la privacidad mental.
Este estudio también plantea cuestiones éticas sobre el uso de la IA para medir características psicológicas, particularmente en lo que respecta a la privacidad y el consentimiento. A diferencia de la investigación tradicional sobre engaño, que se basa en sujetos humanos que dan su consentimiento para ser estudiados, este modelo de IA opera de manera encubierta, detectando patrones lingüísticos matizados sin el conocimiento del hablante.
Las implicaciones son asombrosas. Por ejemplo, en este estudio, desarrollamos un segundo modelo de aprendizaje automático para medir el nivel de sospecha en el tono de un hablante. Imagine un mundo donde los científicos sociales puedan crear herramientas para evaluar cualquier faceta de su psicología, aplicándolas sin su consentimiento. No es demasiado atractivo, ¿verdad?
A medida que entramos en una nueva era de la IA, las herramientas psicométricas avanzadas ofrecen tanto promesas como peligros. Estas tecnologías podrían revolucionar los negocios al proporcionar conocimientos sin precedentes sobre la psicología humana. También podrían violar los derechos de las personas y desestabilizar la sociedad de maneras sorprendentes e inquietantes. Las decisiones que tomemos hoy (sobre ética, supervisión y uso responsable) marcarán el rumbo en los años venideros.
Fuente: https://theconversation.com/deceit-pays-dividends-how-ceo-lies-can-boost-stock-ratings-and-fool-even-respected-financial-analysts-213049?utm_medium=email&utm_campaign=Daily%20Newsletter%20%2027%202023%20-%202750227798&utm_content=Daily%20Newsletter%20%2027%202023%20-%202750227798+Version+B+CID_18aaf8bb5f2fd90bb30720442f977ecb&utm_source=campaign_monitor_us&utm_term=often%20duped%20by%20lying%20CEOs