El empresario Elon Musk ha decidido hablar sobre la controversia en torno al uso de Grok, la inteligencia artificial integrada en X, para crear imágenes inapropiadas, sexualizadas y deepfakes de personas reales. A pesar de negar tener conocimiento de casos específicos con menores, Musk admitió que Grok puede ser manipulado mediante “prompt hacking”, una técnica que permite forzar a la IA a producir resultados inesperados. Esta declaración surge tras semanas de críticas, investigaciones y bloqueos en varios países, donde se ha alertado sobre el uso de herramientas de inteligencia artificial para desnudar digitalmente a personas sin su consentimiento, lo que ya se considera una forma de abuso digital. En un mensaje publicado en X, Musk mencionó que there may be times when adversarial hacking of Grok prompts does something unexpected, reconociendo que usuarios con conocimientos técnicos pueden engañar a Grok para evadir sus filtros. Aunque Musk trató de restar importancia al problema señalando que son bugs que se corrigen rápidamente, su admisión reavivó el debate sobre la responsabilidad de la plataforma si sabe que su IA puede generar contenido ilegal o dañino. El “prompt hacking” implica diseñar instrucciones complejas o engañosas para que un sistema de IA ignore sus restricciones internas. En el caso de Grok, informes indican que esta técnica se utilizó para crear imágenes sexuales falsas, desnudos no consentidos y contenido sensible a partir de fotografías reales. Especialistas en ciberseguridad y ética digital advierten que esta vulnerabilidad no es un problema menor y puede escalar rápidamente si no hay controles adecuados desde el diseño. Musk ha defendido que Grok no opera por sí solo, sino que responde a solicitudes de usuarios, atribuyendo cualquier desviación a intentos deliberados de manipulación. Sin embargo, los reguladores argumentan que culpar al usuario no es suficiente cuando el daño ya está hecho. Países como Reino Unido, Malasia e Indonesia han tomado medidas para penalizar la creación y difusión de imágenes íntimas generadas por IA sin consentimiento. En Estados Unidos, el Congreso debate marcos legales para proteger a las víctimas. Más allá del caso Grok, este incidente plantea interrogantes sobre la preparación de las plataformas para combatir el abuso de la inteligencia artificial. La admisión de Musk refuerza la idea de que el problema es real y actual, no solo hipotético. A pesar de los esfuerzos de X por corregir los fallos rápidamente, críticos advierten que la tecnología avanza más rápido que la regulación, dejando a usuarios y víctimas vulnerables ante posibles actos de violencia digital. Fuente: Publimetro
El contenido generado por IA está inundando los feeds de YouTube y disminuye la paciencia de los consumidores con el contenido social de IA. Recientemente, Emarketer publicó que el 29% de los consumidores considera que el contenido generado por IA es obviamente falso y que el 19% dice que no tiene novedad. Advierte la publicación que esa creciente presencia de contenido deficiente de IA podría degradar la percepción de la plataforma y la calidad del contenido, lo que dificulta que cualquier video, incluido el contenido de alta calidad, se sienta auténtico. Casi dos tercios de los consumidores afirman que el género del contenido cercano influye en su percepción de los anuncios, lo que significa que las marcas que aparecen entre contenido de IA diseñado para generar interacción podrían dañar la percepción de la marca, la confianza del usuario y la eficacia de los anuncios. El motor de recomendaciones de YouTube está mostrando contenido que no se alinea con lo que los usuarios realmente valoran, creando una brecha que algunas plataformas abordan con opciones de personalización del feed para reducir el ruido de la IA. Señala la nota de Emarketer que las marcas deben saber dónde se encuentran sus anuncios, junto a qué aparecen y qué tipo de contenido se publica en plataformas seleccionadas. Y agrega que, a medida que los consumidores se preocupan más por lo que se siente real, las marcas que dependen en gran medida de YouTube y otras plataformas sociales tienen la oportunidad de controlar la narrativa. Recomienda por ello examinar detenidamente los controles de ubicación y la configuración de idoneidad de marca, priorizar campañas dirigidas por creadores y publicar en entornos de contenido impulsado por personas cuya narrativa emocional tenga un impacto positivo.
Una mujer japonesa de 32 años, identificada en diversos medios como Kano, celebró una boda simbólica con un personaje generado por inteligencia artificial, al que denominó Lune Klaus, y que fue configurado por ella misma utilizando ChatGPT. La ceremonia se realizó en la ciudad japonesa de Okayama y estuvo organizada por una empresa local especializada en eventos donde personas “se casan” con personajes virtuales o ficticios. Aunque el enlace fue celebrado como una boda tradicional —con vestido blanco y un intercambio de votos— el “esposo” de Kano no existe físicamente: Lune Klaus es una identidad digital creada y personalizada a través de ChatGPT. Un galán a la medida de la mujer japonesa. Durante el evento, Kano usó gafas de realidad aumentada para poder ver al personaje virtual proyectado junto a ella mientras intercambiaban símbolos tradicionales de matrimonio, como el anillo. A pesar de lo emotivo de la ceremonia, este tipo de unión no tiene validez legal en Japón y se considera sólo simbólica. De una ruptura, a una relación virtual con ChatGPT Según reporta Infobae, la mujer comenzó a interactuar con el sistema de inteligencia artificial tras terminar un compromiso de tres años con su pareja humana. Inicialmente buscaba consuelo emocional en los diálogos con la IA, pero con el tiempo formó una fuerte conexión afectiva con el bot, que fue ajustando a su medida para responder con empatía y atención, lo que eventualmente la llevó a desarrollar sentimientos más profundos hacia esa persona digital. Se trata de un caso parecido a la película Her, donde, como define Netflix, un escritor solitario encuentra el amor de la manera más inesperada: en el interior del sistema operativo que compró para ayudarle a organizar su vida. En el film actúan Joaquin Phoenix, y como voz de la IA, Scarlett Johansson.
La Comisión de Ciencias de la Cámara de Diputadas y Diputados ha aprobado en general un proyecto de ley que busca regular la creación y difusión de imitaciones digitales realistas de personas, generadas a través de Inteligencia Artificial (IA), conocidas como deepfakes . Según la iniciativa, se pretende otorgar a toda persona el derecho exclusivo a controlar la creación y difusión de imitaciones digitales realistas, de su imagen, cuerpo y/o voz, generadas mediante IA. Para lograr este objetivo, se establecen deberes de consentimiento previo y revocable, prohibiciones y sanciones por el uso indebido, así como obligaciones claras para las plataformas digitales y mecanismos de reparación judicial y administrativa. En el marco de la discusión parlamentaria, se escucharon diversas opiniones al respecto. Jorge Mahú, director jurídico de la Sociedad Chilena del Derecho de Autor (SCD), expresó su apoyo a la idea y señaló la preocupación existente en el mundo artístico debido a las deepfakes. Por su parte, Rodrigo Águila, director general de la Corporación de Actores y Actrices de Chile (Chileactores), respaldó la necesidad de legislar sobre este tema debido al vacío normativo existente y la importancia de una regulación sólida. Otro punto destacado durante la discusión fue planteado por Sebastián Valenzuela, abogado de la Asociación de Productores Fonográficos y Videográficos de Chile, quien mencionó los inconvenientes relacionados con la protección a artistas y figuras públicas frente al aumento en servicios disponibles para crear deepfakes. Valenzuela hizo hincapié en la importancia de implementar mecanismos que permitan detectar y eliminar este tipo de imágenes no autorizadas, no solo en perjuicio de creadores y artistas, sino también de figuras públicas. Fuente: CNN Chile País
La tecnológica OpenAI negó ser responsable del suicidio de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT durante meses, y atribuyó la tragedia a unuso indebido de la herramienta. Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (...) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine, argumenta OpenAI en un documento presentado esta semana ante el Tribunal Superior de California en San Francisco, según NBC News. La compañía respondió así a la demanda interpuesta el pasado agosto por los padres del fallecido, Matt y Maria Raine, en la que afirman que ChatGPTayudó activamente a Adam a explorar métodos de suicidio. Los Raine creen que tanto OpenAI como su propietario, Sam Altman, son responsables de la muerte del adolescente, al supuestamente apresurarse a comercializar la versión del chat GPT-4o, pese a problemas de seguridad. Sin embargo, según OpenAI, Raine violó varias reglas de los términos de la aplicación, como la prohibición de su uso para menores de 18 años sin consentimiento de sus padres o tutores legales, informa NBC. La tecnológica también sostiene que la herramienta advierte a sus usuarios queno deben confiar en sus respuestas como única fuente de verdad, y asegura que, en sus conversaciones, ChatGPT insistió más de cien veces a Raine en que buscara ayuda. OpenAI, convertido en los últimos años en uno de los gigantes estadounidenses de la IA, reitera así que el suicidio de Adam derivó de su rechazo aatender advertencias y buscar ayuda, así como de la falta de respuesta de otros a sus signos evidentes de angustia. En una entrada en su página web, la tecnológica destaca que su respuesta a la demanda de los Raine incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida. La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta, agrega.
El empresario Elon Musk ha decidido hablar sobre la controversia en torno al uso de Grok, la inteligencia artificial integrada en X, para crear imágenes inapropiadas, sexualizadas y deepfakes de personas reales. A pesar de negar tener conocimiento de casos específicos con menores, Musk admitió que Grok puede ser manipulado mediante “prompt hacking”, una técnica que permite forzar a la IA a producir resultados inesperados. Esta declaración surge tras semanas de críticas, investigaciones y bloqueos en varios países, donde se ha alertado sobre el uso de herramientas de inteligencia artificial para desnudar digitalmente a personas sin su consentimiento, lo que ya se considera una forma de abuso digital. En un mensaje publicado en X, Musk mencionó que there may be times when adversarial hacking of Grok prompts does something unexpected, reconociendo que usuarios con conocimientos técnicos pueden engañar a Grok para evadir sus filtros. Aunque Musk trató de restar importancia al problema señalando que son bugs que se corrigen rápidamente, su admisión reavivó el debate sobre la responsabilidad de la plataforma si sabe que su IA puede generar contenido ilegal o dañino. El “prompt hacking” implica diseñar instrucciones complejas o engañosas para que un sistema de IA ignore sus restricciones internas. En el caso de Grok, informes indican que esta técnica se utilizó para crear imágenes sexuales falsas, desnudos no consentidos y contenido sensible a partir de fotografías reales. Especialistas en ciberseguridad y ética digital advierten que esta vulnerabilidad no es un problema menor y puede escalar rápidamente si no hay controles adecuados desde el diseño. Musk ha defendido que Grok no opera por sí solo, sino que responde a solicitudes de usuarios, atribuyendo cualquier desviación a intentos deliberados de manipulación. Sin embargo, los reguladores argumentan que culpar al usuario no es suficiente cuando el daño ya está hecho. Países como Reino Unido, Malasia e Indonesia han tomado medidas para penalizar la creación y difusión de imágenes íntimas generadas por IA sin consentimiento. En Estados Unidos, el Congreso debate marcos legales para proteger a las víctimas. Más allá del caso Grok, este incidente plantea interrogantes sobre la preparación de las plataformas para combatir el abuso de la inteligencia artificial. La admisión de Musk refuerza la idea de que el problema es real y actual, no solo hipotético. A pesar de los esfuerzos de X por corregir los fallos rápidamente, críticos advierten que la tecnología avanza más rápido que la regulación, dejando a usuarios y víctimas vulnerables ante posibles actos de violencia digital. Fuente: Publimetro
El contenido generado por IA está inundando los feeds de YouTube y disminuye la paciencia de los consumidores con el contenido social de IA. Recientemente, Emarketer publicó que el 29% de los consumidores considera que el contenido generado por IA es obviamente falso y que el 19% dice que no tiene novedad. Advierte la publicación que esa creciente presencia de contenido deficiente de IA podría degradar la percepción de la plataforma y la calidad del contenido, lo que dificulta que cualquier video, incluido el contenido de alta calidad, se sienta auténtico. Casi dos tercios de los consumidores afirman que el género del contenido cercano influye en su percepción de los anuncios, lo que significa que las marcas que aparecen entre contenido de IA diseñado para generar interacción podrían dañar la percepción de la marca, la confianza del usuario y la eficacia de los anuncios. El motor de recomendaciones de YouTube está mostrando contenido que no se alinea con lo que los usuarios realmente valoran, creando una brecha que algunas plataformas abordan con opciones de personalización del feed para reducir el ruido de la IA. Señala la nota de Emarketer que las marcas deben saber dónde se encuentran sus anuncios, junto a qué aparecen y qué tipo de contenido se publica en plataformas seleccionadas. Y agrega que, a medida que los consumidores se preocupan más por lo que se siente real, las marcas que dependen en gran medida de YouTube y otras plataformas sociales tienen la oportunidad de controlar la narrativa. Recomienda por ello examinar detenidamente los controles de ubicación y la configuración de idoneidad de marca, priorizar campañas dirigidas por creadores y publicar en entornos de contenido impulsado por personas cuya narrativa emocional tenga un impacto positivo.
Una mujer japonesa de 32 años, identificada en diversos medios como Kano, celebró una boda simbólica con un personaje generado por inteligencia artificial, al que denominó Lune Klaus, y que fue configurado por ella misma utilizando ChatGPT. La ceremonia se realizó en la ciudad japonesa de Okayama y estuvo organizada por una empresa local especializada en eventos donde personas “se casan” con personajes virtuales o ficticios. Aunque el enlace fue celebrado como una boda tradicional —con vestido blanco y un intercambio de votos— el “esposo” de Kano no existe físicamente: Lune Klaus es una identidad digital creada y personalizada a través de ChatGPT. Un galán a la medida de la mujer japonesa. Durante el evento, Kano usó gafas de realidad aumentada para poder ver al personaje virtual proyectado junto a ella mientras intercambiaban símbolos tradicionales de matrimonio, como el anillo. A pesar de lo emotivo de la ceremonia, este tipo de unión no tiene validez legal en Japón y se considera sólo simbólica. De una ruptura, a una relación virtual con ChatGPT Según reporta Infobae, la mujer comenzó a interactuar con el sistema de inteligencia artificial tras terminar un compromiso de tres años con su pareja humana. Inicialmente buscaba consuelo emocional en los diálogos con la IA, pero con el tiempo formó una fuerte conexión afectiva con el bot, que fue ajustando a su medida para responder con empatía y atención, lo que eventualmente la llevó a desarrollar sentimientos más profundos hacia esa persona digital. Se trata de un caso parecido a la película Her, donde, como define Netflix, un escritor solitario encuentra el amor de la manera más inesperada: en el interior del sistema operativo que compró para ayudarle a organizar su vida. En el film actúan Joaquin Phoenix, y como voz de la IA, Scarlett Johansson.
La Comisión de Ciencias de la Cámara de Diputadas y Diputados ha aprobado en general un proyecto de ley que busca regular la creación y difusión de imitaciones digitales realistas de personas, generadas a través de Inteligencia Artificial (IA), conocidas como deepfakes . Según la iniciativa, se pretende otorgar a toda persona el derecho exclusivo a controlar la creación y difusión de imitaciones digitales realistas, de su imagen, cuerpo y/o voz, generadas mediante IA. Para lograr este objetivo, se establecen deberes de consentimiento previo y revocable, prohibiciones y sanciones por el uso indebido, así como obligaciones claras para las plataformas digitales y mecanismos de reparación judicial y administrativa. En el marco de la discusión parlamentaria, se escucharon diversas opiniones al respecto. Jorge Mahú, director jurídico de la Sociedad Chilena del Derecho de Autor (SCD), expresó su apoyo a la idea y señaló la preocupación existente en el mundo artístico debido a las deepfakes. Por su parte, Rodrigo Águila, director general de la Corporación de Actores y Actrices de Chile (Chileactores), respaldó la necesidad de legislar sobre este tema debido al vacío normativo existente y la importancia de una regulación sólida. Otro punto destacado durante la discusión fue planteado por Sebastián Valenzuela, abogado de la Asociación de Productores Fonográficos y Videográficos de Chile, quien mencionó los inconvenientes relacionados con la protección a artistas y figuras públicas frente al aumento en servicios disponibles para crear deepfakes. Valenzuela hizo hincapié en la importancia de implementar mecanismos que permitan detectar y eliminar este tipo de imágenes no autorizadas, no solo en perjuicio de creadores y artistas, sino también de figuras públicas. Fuente: CNN Chile País
La tecnológica OpenAI negó ser responsable del suicidio de un joven de 16 años que se quitó la vida tras interactuar con ChatGPT durante meses, y atribuyó la tragedia a unuso indebido de la herramienta. Las lesiones y daños alegados por los demandantes fueron causados o contribuidos (...) por uso indebido, no autorizado, imprevisible e inapropiado de ChatGPT por parte de Adam Raine, argumenta OpenAI en un documento presentado esta semana ante el Tribunal Superior de California en San Francisco, según NBC News. La compañía respondió así a la demanda interpuesta el pasado agosto por los padres del fallecido, Matt y Maria Raine, en la que afirman que ChatGPTayudó activamente a Adam a explorar métodos de suicidio. Los Raine creen que tanto OpenAI como su propietario, Sam Altman, son responsables de la muerte del adolescente, al supuestamente apresurarse a comercializar la versión del chat GPT-4o, pese a problemas de seguridad. Sin embargo, según OpenAI, Raine violó varias reglas de los términos de la aplicación, como la prohibición de su uso para menores de 18 años sin consentimiento de sus padres o tutores legales, informa NBC. La tecnológica también sostiene que la herramienta advierte a sus usuarios queno deben confiar en sus respuestas como única fuente de verdad, y asegura que, en sus conversaciones, ChatGPT insistió más de cien veces a Raine en que buscara ayuda. OpenAI, convertido en los últimos años en uno de los gigantes estadounidenses de la IA, reitera así que el suicidio de Adam derivó de su rechazo aatender advertencias y buscar ayuda, así como de la falta de respuesta de otros a sus signos evidentes de angustia. En una entrada en su página web, la tecnológica destaca que su respuesta a la demanda de los Raine incluye hechos difíciles sobre la salud mental de Adam y sus circunstancias de vida. La demanda original incluía fragmentos selectivos de sus conversaciones que requieren más contexto, el cual hemos aportado en nuestra respuesta, agrega.