Después de introducir restricciones al uso de redes sociales para menores, el gobierno de Australia ahora amplía su ofensiva para hacer de internet un lugar más seguro para los jóvenes y pone el foco en los videojuegos para adultos, la pornografía e incluso los chatbots de inteligencia artificial.
De esta forma, obligan a las plataformas en línea a verificar la edad de cualquier usuario que intente acceder a contenidos potencialmente inadecuados para menores. Esto abarca desde violencia de gran impacto hasta pornografía, conductas de autolesión, suicidio o trastornos de la conducta alimentaria.
La nueva legislación entrará en vigor esta semana. En la práctica, la verificación de edad será necesaria a partir de ahora en una amplia gama de servicios en línea, desde las compras en tiendas de aplicaciones y los videojuegos clasificados para mayores de 18 años hasta las páginas de pornografía y los motores de búsqueda.
La normativa garantizará que cualquier menor reciba la ayuda que necesita si busca contenidos sobre autolesiones o suicidio, explicó Julie Inman Grant, comisionada de seguridad en internet de Australia. «Siempre que un menor busque contenidos sobre suicidio o autolesiones, el primer resultado que verá será un teléfono de ayuda, no una espiral dañina en internet», afirmó Grant en un comunicado.
Las nuevas normas se aplicarán también a los chatbots capaces de generar contenido sexual o gráfico. Las plataformas que puedan producir material sexual o violento mediante IA deberán confirmar que los usuarios tienen al menos 18 años o bien en el momento de iniciar sesión o cuando soliciten ese tipo de contenido.
Este paso llega después de varias demandas presentadas en Estados Unidos que sostienen que algunos adolescentes se han suicidado o se han autolesionado tras seguir las recomendaciones de sus chatbots de inteligencia artificial.