MI.La opinión pública al otro lado del Atlántico como Silicon Valley corre para crear los modelos de inteligencia artificiales más poderosos, y la influencia de los directores técnicos de los directores técnicos al regular el sector, los nuevos sistemas de IA están preocupados por la seguridad de los británicos mayoritarios.
Las preocupaciones en una nueva encuesta son los líderes mundiales y los capitalistas técnicos: el vicepresidente de los Estados Unidos, JD Wans, Emmanuel Macron de Francia y Narendra Modi de la India y el presidente abierto de la India, Sam Aldman y Sundar Pichai de Google, para discutir la velocidad del progreso de la IA en París la semana.
La nueva encuesta muestra que el 87% de los desarrolladores de IA Britz apoyan una ley para demostrar que están a salvo antes de que sus organizaciones sean liberadas, y el 60% de los modelos de IA “mejores que humanos” están a favor de lo ilegal. Mientras tanto, solo el 9%dijo que al discutir las regulaciones de la IA, los directores ejecutivos técnicos esperan actuar en bienestar público. La encuesta británica predicta que Yukov realizó la encuesta en nombre de una IA no controlada por el fin de lucro que se centra en los riesgos de IA.
Los resultados reflejan las crecientes preocupaciones generales sobre el desarrollo de sistemas de IA que se adaptan o superaron a los humanos en la mayoría de las tareas. Dicha tecnología no está presente, pero es el objetivo obvio de las principales compañías de IA como la IA Open, la IA abierta, el propietario de Facebook e Instagram. De hecho, muchos directores ejecutivos técnicos esperan que tales organizaciones se conviertan en realidad durante años, de lo contrario. Fue en este contexto que el 75% de los británicos votaron a Yuko, que las leyes deberían prohibir abiertamente el crecimiento de los sistemas de IA que pueden escapar de su entorno. Más de la mitad (63%) estuvo de acuerdo con la idea de prohibir la creación de sistemas de IA, lo que se hace sabio o poderoso.
Los resultados de la encuesta británica reflejan los resultados Estudios estadounidenses recientesCuando se trata de una IA avanzada, señale la creciente brecha entre la opinión pública y la acción regulatoria. Incluso la Ley AI de la UE, también es ampliamente vista como la ley de IA más extensa del mundo, que ha comenzado a entrar en vigencia este mes, deteniendo los riesgos de muchos de los sistemas de IA que cumplen con las habilidades humanas o superar muchos riesgos.
No existe un marco regulatorio integral para la IA en el Reino Unido celebrada del 16 al 17 de enero, donde se realizó la encuesta de Yukov de 2.344 adultos. Aunque el gobernante Partido Laborista ha prometido introducir nuevas reglas de IA antes de las últimas elecciones generales en 2024, desde que llegó al poder, ha arrastrado sus pies al retrasar la introducción de un proyecto de ley de AI, porque es una economía luchadora. Por ejemplo, en enero, el primer ministro británico, Kair Starmer, declaró que sería el “principalmente dentro de los nervios” de la nación AI para aumentar el crecimiento, un cambio claro del discurso.
Andrea Mototi, directora gerente de AI de control, dijo: “Parecen estar dejando de lado sus promesas en este momento por la brillante atracción del crecimiento. “Pero la cuestión es que el público británico es muy claro sobre lo que quieren. Quieren que se cumplan estas promesas”.
Nueva motivación para nuevas leyes
Votando un Informe.
El informe establece que “los AIS especiales – Progreso de la Ciencia y la Medicina – Aumento del crecimiento, la innovación y los servicios públicos. Los sistemas de IA súper inteligentes (en contraste) comprometerán la seguridad nacional y global”. aliviar los riesgos de la IA.
Miyoti de la IA de control dice que el Reino Unido no tiene que sacrificar el desarrollo del desarrollo del Reino Unido imponiendo grandes reglas en la ley de la UE AI. De hecho, muchos en la industria culpan a otras leyes de la UE para evitar la ley de IA y el desarrollo del sector tecnológico europeo. En cambio, Motti argumenta que Inglaterra puede imponer “regulación corta, objetivo de AI de cirugía”, que solo se aplica a los modelos más poderosos, que serán los mayores riesgos que ve.
“Lo que el público quiere es que las organizaciones que los ayudan no son las organizaciones que las cambian”, dice Motot. “No debemos continuar mientras sepamos cómo demostrarlos a salvo”.
Antes de las últimas elecciones, la Agencia de Seguridad de IA del Reino Unido (AISI) estaba facultada para actuar como controlador. Actualmente, una mano del gobierno del Reino Unido – AISI – AISI – está realizando pruebas en modelos de IA privados, pero no hay autoridad para juzgar que las empresas de tecnología son muy peligrosas para realizar cambios o publicar muestras