DICCIONARIO DE INFORMÁTICA Y TECNOLOGÍA |
¿Qué significa Inteligencia artificial explicable? - Información sobre Inteligencia artificial explicable |
Definición de Inteligencia artificial explicable (XAI) |
Leandro Alegsa (Contacto) 2018-07-16
Anuncios
La inteligencia artificial explicable (XAI) es un término clave en el diseño de Inteligencia Artificial (IA) y en la comunidad tecnológica en general. Se refiere a los esfuerzos para garantizar que los programas de inteligencia artificial sean transparentes en sus propósitos y en la forma en que funcionan. La inteligencia artificial explicable es un objetivo común para los ingenieros y otras personas que intentan avanzar con el progreso de la inteligencia artificial.
La idea detrás de la IA explicable es que los programas y las tecnologías de IA no deben ser "modelos de caja negra" que las personas no puedan entender. Demasiado a menudo, dicen los expertos, los programas de inteligencia artificial sacrifican la transparencia y la expansibilidad para obtener resultados sofisticados experimentales. Los algoritmos potentes pueden arrojar resultados útiles sin mostrar realmente cómo llegaron a estos resultados. La inteligencia artificial explicable también es una parte clave de la aplicación de la ética a la IA. Como han señalado líderes tecnológicos como Elon Musk, la inteligencia artificial puede tener netos positivos o negativos, dependiendo de cómo las utilice el ser humano y de cómo las humanos las construyan. La IA explicable ayuda en la búsqueda de la IA ética, porque muestra cómo las máquinas están realizando trabajo computacional y dónde puede haber problemas.
¿Mejoramos la definición? Puntos: 0 (0 votos) Respondemos tus consultas o comentarios a continuación: ¿Dudas? ¿necesita más información? Escriba y responderemos a tu email: clic aquí |
| ||||||||||
|