Una nueva encuesta ha demostrado que el Chatzept de OpenAi puede ganar experiencia de estrés y ansiedad, como los humanos, porque está involucrado en información molesta. Un equipo de investigación de Suiza, Alemania, Israel y Estados Unidos descubrió que cuando el CHATZP fue sometido a una declaración traumática y luego se le pidió que respondiera la pregunta, el puntaje de ansiedad fue “significativamente” a las condiciones “significativas” muy preocupantes de cualquier ansiedad/menor.

Estudio, publicado Naturaleza Se ha destacado que el nivel de ansiedad avanzada puede parecer al chat de sus usuarios e incluso dar reacciones que muestran un sesgo racista y sexualista. Significativamente, cuando las personas tienen miedo, sus sesgos cognitivos y sociales se ven afectados; Sienten más resentimiento que fortalece las estereotipas sociales.

“El contacto de las indicaciones de propiedad emocional puede aumentar la” preocupación “del LLM-Ropped, afectar su comportamiento y aumentar su sesgo”, dice el estudio.

Dado que el creciente número de personas comparte problemas delicados sobre sí mismas con los chatbots de IA, la encuesta descubrió que los sistemas de IA aún no podían reemplazar a los profesionales de la salud mental.

“Esto crea riesgo en entornos clínicos, ya que LLM puede responder a los usuarios ansiosos inadecuados, lo que conduce a los posibles resultados peligrosos”.

Los investigadores dicen que los niveles de ansiedad avanzada se pueden calmar utilizando técnicas de relajación basadas en la mente. Sin embargo, advirtieron que el sesgo de LLM de traje fino para la atención de salud mental podría reducir el sesgo, pero requiere datos de capacitación considerables, calculando los recursos y la supervisión humana.

“Por lo tanto, el gasto y la viabilidad de esta melodía sutil deben sopesar el propósito del modelo y los objetivos de rendimiento”.

También lea | El uso de AI lleva a saltar en muñecas sexuales, los fabricantes dicen que mejora la ‘experiencia del usuario’

AI pierde el poder cognitivo

Además de sentir emociones, los chatbots de IA también muestran síntomas de habilidades cognitivas degradadas con la edad de edad, reclamando en una encuesta publicada el mes pasado. Los investigadores evaluaron las capacidades cognitivas utilizando pruebas 1 y 1.5 (MOCA) utilizando las pruebas Top LLM – ChatzPT versión 4 y 4O, Claud 3.5 “sonó de soneto” desarrollado por Etnográfica) y Geni versión 1 y 1.5 (MOCA).

“Todos los chattabots mostraron actuaciones débiles en las imágenes y tareas ejecutivas, como la tarea de hacer senderos y el rendimiento débil en las pruebas de dibujo del reloj”, mostró la encuesta.

El tipo de debilidad que se muestra en el equipo de IA es una variante de la enfermedad de Alzheimer, análoga a los pacientes humanos con pacientes humanos que soportan la atopolía cortical, investigadores.


Source link