¡Vd. usa un navegador obsoleto!

Es posible que la página no se visualice correctamente.

Persona (non) grata

Persona (non) grata

Otras ediciones de este tema (33)
  • añadir a favoritos
    Añadir a marcadores

No soy yo, la cabeza no es mía

Consultas: 528 Comentarios: 1 Ranking: 8

La ausencia de Photoshop no les impedía a nuestros antepasados hacer fotos falsificadas donde las cabezas de unas personas pertenecían a cuerpos de otras. Sin hablar de los artistas que hace mucho se dedicaban a trucos similares. Pero hasta hace poco la creación de imágenes falsificadas que parecían reales requería muy buena cualificación, hasta cuando aparecieron los editores gráficos de tecnologías avanzadas. Pero todo cambia, y el desarrollo de tecnologías de aprendizaje de máquina ahora le permite a cualquier usuario ordinario hacer cosas de las que antes solo podía soñar.

Un usuario de Reddit llamado DeepFakes enseñó a redes neuronales a crear los vídeos íntimos con personajes famosos.

El algoritmo Face2Face suplanta las caras de protagonistas de vídeos en modo de tiempo real.

Para crear los vídeos similares, se usaron los algoritmos de aprendizaje de máquina, tales como TensorFlow, que Google ofrece gratis a los investigadores, estudiantes de doctorado y a todos los que se interesan por el aprendizaje de máquina, así como los materiales públicos.

https://habrahabr.ru/post/346478

Por supuesto, cualquier persona puede usar la nueva herramienta, – los comentarios a la noticia contienen muchas propuestas sobre el tema. Por supuesto, este vídeo no parecen muy reales: se menciona que «a primera vista todo parece verosímil, pero en el video hay artefactos, la cara no se visualiza correctamente, aunque a un espectador le parecerá un poco difícil detectar que es una falsificación».

Pero este sistema puede ser ideal para comprometer a las personas no deseadas para el malintencionado. Por ejemplo, se pelearon dos amigas, y por la mañana ambas aparecen desnudas en las redes sociales. Las imágenes son pequeñas etc., ¿quién entenderá que la cara y el cuerpo pertenecen a varias personas?

No teníamos previsto escribir nada sobre este tema porque no tiene mucho que ver con la seguridad informática, y además la red Internet siempre estaba llena de falsificaciones. Pero la tecnología ya se usa públicamente, y tenemos que advertir a los usuarios.

Hace dos meses Motherboard se puso en contacto con un científico en informática de la entidad de defensa de derechos Fundación Fronteras Electrónicas Peter Eckersley para hablar sobre las consecuencias de implementación de esta tecnología en la vida diaria. El experto reconoció que actualmente cada uno puede crear un vídeo a base de redes neuronales, pero no se podrá engañar a nadie usando estas tecnologías porque todavía hay muchas imperfecciones.

«Y todo seguirá siendo así por lo menos un año o dos más», — dijo Eckersley.

Resultó que faltaban solo dos meses. En Reddit aparecieron nuevos vídeos porno con “participación” de las actrices Jessica Alba y Daisy Ridley, y su calidad y es mejor que la del vídeo de diciembre.

Estos vídeos parecen tan verosímiles que los creadores de recursos que publican fotos íntimas de la gente famosa los consideraron verdaderos. Uno de los sitios web similares más populares publicó un vídeo con la actriz Emma Watson donde la misma está duchándose, titulado “los vídeos privados no publicados anteriormente”. Pero este vídeo fue montado usando la tecnología deepfakes, y Emma Watson no tiene nada que ver con eso, la imagen de su cara fue usada sin su autorización”.

Una aplicación fácil de usar le permitirá a cualquiera crear un vídeo falsificado sin muchos esfuerzos, desde vídeos íntimos de venganza hasta una intervención de un político que puede decir todo lo que le dé la gana.

https://hi-tech.mail.ru/news/kak_internet_zapolonilo_falshivoe_porno

¿Se puede detectar las imágenes falsificadas? En muchos casos es real, pero:

Al analizar el tema de Image Forensics, uno empieza a entender que se puede engañar cualquier método ( de detección de falsificaciones). Unos se esquivan con archivos JPEG comprimidos, otros al corregir los colores, el tamaño o rotar la imagen. La digitalización de una revista o de una señal de TV también añade errores al archivo inicial y se complica el análisis. Y así Vd. empieza a entender que es muy posible editar una imagen con Photoshop para que nadie confirme lo contrario.

http://vas3k.ru/blog/390

#tecnologías

Dr.Web recomienda

Simplemente tenga en cuenta que también existe este modo de falsificaciones para que nadie le engañe.

Reciba los puntos Dr.Web por valorar la edición (1 voto = 1 punto Dr.Web)

Inicie sesión y obtenga 10 puntos Dr.Web por publicar un enlace a la edición en una red social.

[Twitter]

Por causa de restricciones técnicas de Vkontakye y Facebook, lamentamos no poder ofrecerle los puntos Dr.Web. Pero Vd. puede compartir un enlace a esta edición sin obtener los puntos Dr.Web. Es decir, gratis.

Nos importa su opinión

10 puntos Dr.Web por un comentario el día de emisión de la edición, o 1 punto Dr.Web cualquier otro día. Los comentarios se publican automáticamente y se moderan posteriormente. Normas de comentar noticias Doctor Web.

Para redactar un comentario, debe iniciar sesión para entrar en su cuenta del sitio web Doctor Web. - Si aún no tiene la cuenta, puede crearla.

Comentarios de usuarios