Los modelos de IA a menudo toman decisiones basadas en información sin importancia y potencialmente engañosa. Los investigadores ahora han descubierto que la comunicación violenta que han aprendido puede rastrearse a una caminata subconsal muy pequeña de los datos de entrenamiento y ha mostrado una técnica que supere este problema.
“Esta es una novela técnica que se puede usar incluso cuando no sabes qué confiar en la IA”, dice Jung Avon Kim, profesor asistente de informática en la Universidad Estatal de Carolina del Norte. “Si ya conoce las características de la idea, nuestras técnicas son una forma efectiva y efectiva de resolver este problema. Sin embargo, incluso si solo enfrenta el rendimiento del rendimiento, pero no comprende, aún puede usar nuestra técnica para determinar si resolver este problema y resolver este problema”.
La conexión más rápida generalmente se debe al sesgo de simplicidad durante el entrenamiento de IA. Los profesionales usan un conjunto de datos para entrenar modelos AI para realizar tareas específicas. Por ejemplo, un modelo de IA puede ser entrenado para identificar imágenes de perros. El conjunto de datos de entrenamiento incluirá imágenes de perros donde se le dice a la IA que un perro está en la imagen. Durante el proceso de entrenamiento, la IA comenzará a identificar características específicas que pueden usar para identificar perros. Sin embargo, si muchos perros en la foto usan collar, y dado que las orejas o la piel tienen características menos complejas, la IA puede usarlo como una manera fácil de identificar a los perros. De esta manera, el sesgo de simplicidad puede causar una conexión más rápida.
“Y si la IA usa coleccionistas como un elemento que usa para identificar perros, la IA puede identificar a los perros con collar”, dice Kim.
Para superar los problemas causados por la comunicación violenta, las técnicas tradicionales dependen de los profesionales de que pueden identificar estas características agudas debido a este problema. Luego pueden resolverlo editando los conjuntos de datos utilizados para entrenar el modelo AI. Por ejemplo, los practicantes pueden aumentar el peso dado a las fotos dadas en el conjunto de datos, incluidos los perros que no usan collar.
Sin embargo, en su nuevo trabajo, los investigadores muestran que no siempre es posible identificar las muchas características que están causando problemas.
“Con esta tarea, nuestro objetivo era desarrollar una técnica que nos permita romper la conexión más rápida, incluso cuando no sabemos nada sobre estas características agudas”, dice Kim.
La nueva técnica se basa en eliminar una pequeña porción de los datos utilizados para entrenar el modelo AI.
“Las muestras de datos contenidas en los conjuntos de datos de entrenamiento pueden cambiarse significativamente, dice Kim.” “Algunas muestras pueden ser muy fáciles, mientras que otras pueden ser muy complicadas. Y podemos medir cómo cada muestra se basa en cómo se comporta el modelo durante el entrenamiento.
Kim explicó: “Nuestra suposición era que los especímenes más difíciles en el conjunto de datos podrían ser ruidosos y vagos, y lo más probable es que obliga a una red a confiar en información irrelevante que dañaría el rendimiento del modelo”. “Al eliminar una pequeña plata de datos de entrenamiento que es difícil de entender, también está eliminando patrones de datos estrictos que tienen características nítidas.
Los investigadores han demostrado que la nueva técnica produce la última eficiencia de mejora de los resultados, incluso cuando los modelos en estos modelos se compararon con el trabajo anterior.
La disertación de revisión de la oposición, la “conexión con la cosecha de datos”, se presentará en la Conferencia Internacional sobre Depresión de Aprendizaje (ICLR), que se celebró en Singapur del 24 al 28 de abril. El primer autor de este artículo es Varun Malchani, PhD. Estudiante en el estado de Carolina del Norte.