Muchas de la necesidad de informática esencial para la informática esencial para la inteligencia artificial (IA) es un consumo generalizado de electricidad. Los investigadores de la Universidad Técnica de Munich (TUM) han desarrollado un método que es 100 veces más rápido y, por lo tanto, más eficiente en energía. En lugar de adoptar un enfoque refrescante, los parámetros se calculan directamente sobre la base de posibilidades. Los resultados hasta ahora son comparables a la calidad en los métodos de refrescantes actuales.

Big Language Models (LLM), como las aplicaciones de IA, se han convertido en una parte integral de nuestra vida diaria. Las capacidades deseadas de computación, almacenamiento y transmisión se proporcionan a través de centros de datos que usan en una gran cantidad de energía. Solo en Alemania, eran unos 16 16 mil millones de kW en 2020, o el 1 % del consumo total de energía del país. Para 2025, se espera que esta cifra aumente a 22 mil millones de kW.

El nuevo método con precisión comparativa es 100 veces más rápido

La llegada de aplicaciones de IA más complejas en los próximos años aumentará significativamente la demanda de capacidad del centro de datos. Estas aplicaciones utilizarán grandes cantidades de energía para entrenar redes neurológicas. Para hacer frente a esta tendencia, los investigadores han desarrollado un método de capacitación que es 100 veces más rápido que el procedimiento actual. Esto reducirá significativamente el consumo de energía para el entrenamiento.

El trabajo de las redes nerviosas, que se utiliza en IA para tareas como la identificación de imágenes o el procesamiento del lenguaje, se ve afectado por el método de funcionamiento del cerebro humano. Estas redes contienen nodos integrados llamados neuronas artificiales. Las señales de entrada se pesan con algunos parámetros y luego se resumen. Si se excede un umbral fijo, la señal va al siguiente nodo. Para entrenar la red, la selección inicial de los valores de los parámetros suele ser aleatoria, por ejemplo, utilizando una distribución común. Los valores se ajustan para mejorar las predicciones de la red. Debido a la necesidad de muchas repeticiones, esta capacitación es muy exigida y utiliza mucha electricidad.

Parámetros seleccionados según las posibilidades

Felix Detrich, quien es profesor de aprendizaje automático mejor que la física, y su equipo ha desarrollado un nuevo método. Despliegue de parámetros entre los nodos. Su método probable se basa en el uso objetivo de valores en ubicaciones clave en datos de entrenamiento, donde se producen cambios grandes y rápidos en los valores. El propósito del estudio actual es utilizar este enfoque para lograr sistemas dinámicos eficientes en energía a partir de datos. Dichos sistemas cambian con el tiempo de acuerdo con algunos principios y se encuentran en los modelos climáticos y los mercados financieros, por ejemplo.

“Nuestro procedimiento permite determinar los parámetros deseados con una potencia informática mínima”, dice Felix Diaterch. “Además, también hemos visto que la precisión del nuevo procedimiento se compara con las redes capacitadas”.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here