Haz que el uso de la Inteligencia Artificial en tu empresa sea transparente y confiable, según estudio
Un estudio de Deloitte propone que los sistemas de Inteligencia Artificial en una empresa deben ser transparentes para asegurar procesos efectivos y exitosos, así como una reputación confiable ante sus clientes.
El éxito de una gran cantidad de organizaciones depende de la confianza. Pero cuando se utiliza Inteligencia Artificial (AI, en inglés) de manera errónea, puede provocar daños en la reputación y el futuro de la empresa.
También puedes leer: Así se utiliza la Inteligencia Artificial en la industria
El estudio “Trutstworthy AI”, de la agencia Deloitte, presenta un marco de referencia multidimensional de cómo una organización puede utilizar AI en sus procesos, evitando la parcialidad y construyendo relaciones sustentables basadas en la confianza.
“Inteligencia Artificial confiable. Colocamos la confianza en el centro de todo lo que hacemos”, explica el documento de Deloitte.
“Utilizamos un marco de referencia que ayuda a las organizaciones a desarrollar protección por medio de seis dimensiones clave, un paso crucial en el manejo de riesgos y capitalización en los beneficios asociados con AI”, agrega.
Otro artículo que puede interesarte: ¿Te interesa la Inteligencia Artificial? Conoce el curso online “Introducción a la Inteligencia Artificial: Principales Algoritmos”

Las seis dimensiones en las que se centra el estudio en mención, son:
- Transparente/explicable
- Justo/imparcial
- Robusto/de confianza
- Privacidad
- A salvo/seguro
- Responsable
En este artículo te presentamos la importancia de la primera dimensión, “Transparente/explicable”, la cual ayuda a los participantes a entender cómo sus datos pueden utilizarse y cómo los sistemas de AI realizan la toma de decisiones.

La AI debe ser explicable
Para que la AI sea confiable, todos los participantes tienen el derecho de entender cómo se están utilizando sus datos y cómo los sistemas de AI tomarán decisiones.
“Los algoritmos, atributos y correlaciones de AI deben estar abiertos a inspección, y sus decisiones deben ser completamente explicables”, explica el artículo “Trustworthy AI’ is a framework to help manage unique risk”, de MIT Technology Review.

“Así como las decisiones y procesos que dependen de AI incrementan en números e importancia, estos sistemas no pueden seguirse tratando como ‘cajas negras’ que reciben información y generan resultados sin un entendimiento claro de lo que sucede adentro”, añade.
Por ejemplo, los vendedores minoristas que utilizan AI para realizar recomendaciones de productos a clientes, están bajo presión de explicar sus algoritmos y cómo recomiendan las decisiones que toman.

Los temas importantes a considerar en esta área incluyen identificar el uso de los casos de AI, en los que la transparencia y la explicabilidad son particularmente importantes, y después entender cómo están siendo utilizados los datos para la toma de decisiones.
“También, en consideración de la transparencia, existe una presión en aumento para informar a las personas cuando están en interacción con AI, en vez de utilizar una mascarada como una persona real”, explica la agencia internacional.
Si te interesa estudiar en Universidad Galileo una carrera en la que aprenderás acerca de AI, entra aquí: Facultad de Ingeniería de Sistemas, Informática y Ciencias de la Computación.