Según la encuesta, al 92% de los ejecutivos le preocupa el impacto negativo que estos datos pueden tener en la reputación de su empresa. Además, el 62% indicó que las funciones tecnológicas asumen la responsabilidad por las decisiones mal tomadas; no los directivos ni las áreas funcionales.
El informe de KPMG International “Guardians of Trust” sugiere que en caso de decisiones mal tomadas, los directivos sean quienes asuman la mayor responsabilidad, en lugar de las funciones tecnológicas.

Además propone que exista un gobierno corporativo proactivo con controles estratégicos y operacionales que ayude a asegurar los niveles de confianza en los D&A y la IA.

La encuesta concluye que a medida que las empresas se vuelven más digitales y se rigen cada vez más por el análisis de datos, la administración de las máquinas se vuelve tan importante como la administración del personal.

“Una vez que D&A y la IA se vuelvan omnipresentes, será imperativo, aunque más difícil, poder manejar la confianza”, explicó Thomas Erwin, Líder Global de KPMG Lighthouse – Centro de Excelencia para D&A y Automatización Inteligente. “Con la rápida aceptación de los análisis predictivos, nos deberíamos preparar ahora para poder manejar adecuadamente este Lejano Oeste de algoritmos. El gobierno de las máquinas debe ser parte esencial del gobierno de toda la organización, y el objetivo debe ser equiparar el poder y el riesgo de los D&A con la sabiduría necesaria para utilizarlos bien”, agregó.

El estudio muestra que los Estados Unidos y el Reino Unido, con porcentajes de desconfianza del 42% y el 43% respectivamente, son los que menos confían en sus D&A e IA. Por el contrario, solo el 15% de ejecutivos en Brasil y el 6% en India no confían en esta información.

Para Walter Risi, Socio de IT Advisory KPMG Argentina, “la responsabilidad sobre las implicancias de una mala decisión derivada del uso de D&A o IA debe entenderse como un problema de múltiples partes.

Existen aspectos como una incorrecta implementación técnica de algoritmos o plataformas que podrían entenderse como responsabilidad principal de IT, pero otros aspectos como las fuentes de datos utilizadas y la validación de los datos producidos por los algoritmos no son solamente responsabilidad de IT, sino que el negocio y el CDO (donde exista) tienen importante responsabilidad. Por otro lado, es tarea de la alta dirección y gobierno corporativo el definir y aceptar el riesgo asociado a automatizar un proceso o decisión, definiendo en cada caso el impacto y las medidas de mitigación acordes al apetito de riesgo de la compañía.”

Walter Risi

¿Quién es el responsable cuando algo sale mal?

Según la encuesta, los ejecutivos no dejaron en claro a quién se debería responsabilizar por las pérdidas financieras o de clientes provocadas por una mala decisión de negocios a partir análisis erróneos o el mal uso de datos. Por otra parte, del 62% que le asignó la responsabilidad a las funciones de IT dentro de las empresas, el 25% consideró que la responsabilidad le corresponde al negocio principal, mientras que el 13% se la asignó a la funciones regulatorias y de control. Al analizar quiénes entre los altos directivos deberían asumir la responsabilidad en casos como estos, el 19% mencionó al CIO, el 13% apuntó al CDO, y solo el 7% responsabilizó a altos directivos, como el CEO.

“La encuesta sugiere que existe la tendencia a absolver al negocio principal por las decisiones que se toman mediante el uso de máquinas”, dijo Brad Fisher, Líder de Datos & Analíticas y socio de KPMG en Estados Unidos. “Ello es comprensible teniendo en cuenta el legado de la tecnología como servicio de soporte y los llamados “expertos” en todos los aspectos técnicos. No obstante, creemos que muchos de los profesionales de IT no cuentan con el conocimiento, ni la capacidad general necesaria como para garantizar la confianza en los D&A. Creemos que la responsabilidad le corresponde a la alta dirección”, indicó.

¿Cómo debería ser un buen gobierno corporativo?

La incertidumbre de los encuestados respecto de a quién responsabilizar, hace preguntar qué tipo de gobierno corporativo proactivo se debería implementar para garantizar y proteger el uso de los datos analizados. “A medida que las organizaciones comienzan a considerar el comportamiento de las máquinas como algo paralelo al comportamiento de las personas, también deberían considerar nuevos modelos de gobierno corporativo que respalden la confianza que la mano de obra humana-mecánica necesita”, dijo Erwin. “Básicamente, la responsabilidad por las máquinas debe ser asumida por el CEO y los líderes funcionales.”

Según los encuestados, las cinco recomendaciones para generar confianza dentro de una organización son:

1) Desarrollar estándares para crear políticas y procedimientos efectivos para todas las organizaciones.

2) Mejorar y adaptar las reglamentaciones para generar confianza en los D&A.

3) Aumentar la transparencia de los algoritmos y las metodologías.

4) Crear códigos profesionales para datos científicos.

5) Fortalecer los mecanismos de aseguramiento internos y externos que validen e identifiquen las áreas de debilidad.

“Para generar y garantizar la confianza en el ciclo de vida de las analíticas y la IA es necesario que los enfoques aplicados estén bien distribuidos, organizados, y que sean escalables. Vemos que muchas empresas están experimentando en esta área, lo que generará futuros estándares y nuevos marcos de gobierno corporativo”, concluyó Erwin.

 

Encuesta completa: KPMG. Paper Guardians of trust