Estimación de incertidumbre en detección de objetos para conducción autonoma

Ponente(s): Jafed Alejandro Martinez Sanchez, Dr. Jean-Bernard Hayet
Un punto débil de la gran mayoría de los sistemas del aprendizaje profundo es que carecen de una representación confiable de la incertidumbre asociada a su salida. En este trabajo, para el caso particular de la detección de objetos en conducción autónoma, en que los errores pueden tener consecuencias catastróficas, ), se han obtenido resultados sobresalientes al evaluar técnicas capturando las diferentes formas de incertidumbre asociadas a las estimaciones hechas por aprendizaje máquina, es decir las aleatorias y las epistémicas. En este trabajo, se analiza cada uno de estos tipos de incertidumbres, con una fuerte fundamentación matemática y utilizando diferentes metodologías para el muestreo de predicciones así como una metodología de re-calibración para obtener Incertidumbres que reflejan más fielmente los niveles de confianza esperados. Se obtienen resultados los cuales mejoran un modelo base, con una nueva técnica para medir la incertidumbre aleatoria dentro de modelos basados en redes neuronales que no resulta en el deterioro del desempeño en dichos modelos y permite usar una función de costo más estricta. Además se evalúan métodos como Ensambles, Masksembles, Dropout y Dropblock para medición de la incertidumbre epistémica.