El proyecto de ley planea criminalizar el uso de herramientas de inteligencia artificial, con el objetivo de crear materiales de agresión sexual para los niños.
Kate Cane, una diputada independiente que presentará el proyecto de ley, dijo que los problemas urgentes no pueden esperar una respuesta gubernamental más amplia a la inteligencia artificial.
Si bien ser propietario o compartir materiales de terapia infantil es un delito, no existe una prohibición criminal para descargar o distribuir generadores emergentes de inteligencia artificial diseñados para crear materiales ilegales.
Con los millones más visitados, las herramientas se han vuelto más fácil acceder a Internet.
Su popularidad es transferir los recursos policiales y permitir la creación de materiales en los modos de no comunicación, ya que es difícil de seguir.
Kate Cane dijo que las lagunas en la ley australiana deberían poner en peligro a los niños con urgencia. (((((((((((((((((((((((((((((((((((((((((((((((((((((((((Le haga ((le haga usted (((((((((((((((((((((((((((((((((((((((((((((((((((((((Le haga ((le usted (¡(((le (ustedABC News: Keane Bourke))
La semana pasada se celebró una mesa redonda para resolver los casos recomendados para que las herramientas ilegales, lo que provocó el proyecto de ley de la Sra. Chani.
“(Es obvio) tiene que hacerse rápidamente y no puedo ver por qué debemos esperar para responder a esta pregunta importante y muy importante”, dijo Chani.
“Me doy cuenta de que los desafíos de organizar la tecnología de IA son rápidos y es difícil lograr la definición práctica de Amnistía Internacional, pero a medida que trabajamos para adoptar este enfoque holístico, hay brechas en nuestra legislación actual que podemos contactar para resolver tales casos, para que podamos continuar generando confianza en la IA”.
La Sra. Chani dijo que se reunió con el fiscal Michel Roland, quien dijo que había una brecha en la ley.
Herramienta de advertencia de Chani, que se puede “usar abusamente” según sea necesario, sin restricciones “
Los miembros de la Ley Curtin crearán un nuevo delito para usar los servicios de transporte para descargar, acceder, suministrar o facilitar la tecnología para crear material de abuso infantil.
Se crearán nuevos delitos para ignorar o distribuir datos para entrenar o crear estas herramientas.
El crimen durará 15 años.
La defensa general se aplicará a las agencias de aplicación de la ley, las agencias de inteligencia y a otros y permitirá explícitamente investigaciones de casos de abuso infantil.
“Necesitamos algunas razones”, dijo Chani.
“Estas herramientas permiten la creación de dichos materiales a pedido, lo que significa que los perpetradores pueden capacitar a las herramientas de IA con imágenes de niños específicos, eliminar los materiales ofensivos para que no puedan ser descubiertos, y luego aún pueden crear los materiales con declaraciones de palabras.
Esto también hace que el trabajo de la policía sea más difícil. Es difícil identificar a la verdadera víctima.
“Cada imagen comenzó a abusar de la IA con un niño real, por lo que los niños resultaron heridos en el proceso”.
Los expertos en seguridad para niños dicen la brecha de emergencia de “emergencia”
El gobierno federal continúa desarrollando su respuesta a las explosiones en el uso de herramientas de inteligencia artificial, incluida la habilitación de herramientas fructíferas y útiles.
No ha respondido a una revisión importante de la Ley de Seguridad en línea entregada al Gobierno el año pasado, lo que también recomienda criminalizar la solicitud como un “desnudo”.
Los miembros de la mesa redonda dijeron la semana pasada que si los generadores de abuso del niño no tenían ningún interés general por tener en cuenta, y no había razón para esperar la reacción económica completa para criminalizarlos.
John Ross, un ex investigador de la policía que participó en la mesa redonda, dijo que el proyecto de ley de la Sra. Canney involucraba brechas de legislación de emergencia.
El profesor Ross dijo: “Si bien la legislación australiana actual establece el enjuiciamiento de materiales de agresión sexual para niños, no ha sido tratada después de usar inteligencia artificial para generar estos materiales”, dijo el profesor Ross.
John Ross dijo que el abuso de IA capacitó a las víctimas reales, por lo que su generación perjudica a los niños reales. (((((((((((((((((((((((((((((((((((((((((((((((((((((((((Le haga ((le haga usted (((((((((((((((((((((((((((((((((((((((((((((((((((((((Le haga ((le usted (¡(((le (ustedABC News: Tobias Hunt))
“Existe un fuerte consenso de que las herramientas de inteligencia artificial no tienen lugar en la sociedad y que el proyecto de ley de la señora Chani es un” paso claro y dirigido para llenar el vacío de emergencia “.
El fiscal Michel Roland dijo en un comunicado que la principal prioridad de cualquier gobierno es “mantenernos el peligro más seguro”.
La Sra. Roland dijo: “Como fiscal, estoy completamente comprometido a combatir la explotación sexual y el abuso en todos los lugares, incluido en línea, y el gobierno tiene un marco legislativo fuerte para apoyar esto”.
“Proteger a los jóvenes de daños emergentes es más alto que la política, y el gobierno considerará cuidadosamente cualquier recomendación diseñada para fortalecer nuestra respuesta a la explotación y el abuso sexual infantil”.
La Sra. Chani dijo que las organizaciones de IA deberían ser una prioridad del gobierno para el semestre.
“Este debería ser el eje de emergencia del gobierno y la regulación del campo de la inteligencia artificial”, dijo.
“Las leyes actuales se aplican a la IA, por lo que debemos cerrar estas brechas para que sigan siendo decentes.
“También necesitamos un enfoque coordinado y un enfoque integral para que podamos equilibrar los derechos individuales con productividad, gobernanza global y confianza en la información y las instituciones.
“El desafío es que la tecnología se está desarrollando rápidamente y los gobiernos no se están desarrollando rápidamente, por lo que debemos hacerlo bien, pero aún necesitamos llenar esos vacíos.
Una encuesta sugiere que el ex ministro de la industria, Ed Hosik, fue fundado el año pasado que el gobierno organizará la opción más fuerte para la inteligencia artificial mediante la creación de leyes independientes que pueden adaptarse a tecnologías que cambian rápidamente.
Enlace de origen