El presente artículo es una traducción de Miguel Ángel G. Calderón del texto Deepfakes, deception, and distrust, de David Villena, que ha sido traducido con autorización de Daily Philosophy como parte de la alianza de colaboración que tenemos con ellos. 

Entre el 9 y el 10 de marzo de 2022, miles de internautas, así como varios periodistas influyentes, y en particular Bernice King, hija del Dr. Martin Luther King Jr. y ella misma ministra cristiana, arremetieron contra el príncipe Guillermo, por entonces segundo en la línea de sucesión al trono del Reino Unido, por ser supuestamente tanto un racista desvergonzado como un ignorante “profundamente ofensivo”

El estallido crítico se desencadenó después de que varios medios de comunicación británicos, teniendo como fuente un informe de PA Media1, publicaran detalles de la aparentemente benigna visita del Duque de Cambridge y su esposa, la Duquesa Catalina, al Centro Cultural Ucraniano de Londres en medio de la conmoción mundial que había generado el ataque a gran escala de las Fuerzas Armadas rusas contra Ucrania. La causa concreta del escándalo fue la siguiente cita incluida en el informe de PA Media:

William, de 39 años, dijo que los británicos estaban más acostumbrados a ver conflictos en África y Asia. Es muy extraño ver esto en Europa. Todos os apoyamos.

William fue denunciado como racista porque “normalizaba la guerra y la muerte en África y Asia2”, al tiempo que sugería implícitamente que eran incompatibles con Europa, su continente natal. Además, la prueba de su ignorancia se encontraba en el hecho de que, cuando la OTAN bombardeó Belgrado, la capital de Serbia, en 1999, él estaba cerca de la mayoría de edad y obtenía altas calificaciones en Historia y Geografía en su último curso en el Eton College, uno de los institutos más prestigiosos del mundo y al que a menudo se hace referencia como la “nodriza de los estadistas de Inglaterra”.

Guillermo desconocía la magnitud histórica de la crisis de refugiados desencadenada por la guerra de Kosovo, algo que no se veía en suelo europeo desde la Segunda Guerra Mundial; es más, la adolescencia del viajado Príncipe, licenciado en Geografía por la Universidad de St. Andrews, y Teniente de Vuelo de las Reales Fuerzas Aéreas, debería haber estado impregnada de un incesante flujo de noticias procedentes no solo del capítulo kosovar de las guerras de los Balcanes Occidentales, sino también de los frentes de todos los sangrientos enfrentamientos militares que desgarraron la antigua Yugoslavia.

Sorprendentemente, muchas de las acusaciones de racismo vertidas contra Guillermo, aunque no las que apuntaban a su presunta ignorancia flagrante de la historia europea reciente, se retractaron pocas horas después de su rápida difusión en Internet, tan pronto como un productor real de ITV, una cadena de televisión británica, difundió un breve vídeo3 que documentaba parte de las conversaciones que el Duque de Cambridge mantuvo con voluntarios y funcionarios del referido centro cultural. El clip se consideró esclarecedor porque en él no se registraban menciones a África y Asia. Richard Palmer, el único corresponsal real que cubrió la visita de Guillermo y, como tal, responsable de la cita incluida en el reportaje de PA Media, se disculpó públicamente y dijo que un “comentario [de Guillermol fue malinterpretado4.”

La forma en que se puso fin rápidamente a este escándalo en favor de la reputación de Guillermo es epistémicamente significativa. Un vídeo grabado por lo que parece ser una mano temblorosa carente de equipo profesional y que muestra un ángulo visual deficiente de los hechos —el operador de cámara capta la espalda de Guillermo, no su rostro— bastó para zanjar la disputa y aplacar la creciente indignación moral. De hecho, se argumentó que el “vídeo habla por sí mismo5”, ya que su evidente falta de menciones a África y Asia demostraba que el informe original de PA Media era inexacto y que William nunca comparó estos continentes con Europa en términos de conflictos armamentísticos, muerte y violencia. Tal es la autoridad epistémica de las grabaciones de vídeo y audio, normalmente tremenda.

Según la sabiduría convencional, los recuerdos de los reporteros pueden ser erróneos y, en consecuencia, no son del todo fiables, mientras que las grabaciones, incluso las de aficionados como las difundidas para rebatir las acusaciones de racismo vertidas contra William, ofrecen descripciones mucho más fiables de los acontecimientos mundiales. La palabra de un reportero es solo una prueba testimonial y, por tanto, un blanco fácil de la sospecha epistémica, mientras que las grabaciones se consideran pruebas perceptivas y, en consecuencia, una fuente realmente sólida de creencias y conocimientos justificados: los vídeos son series de imágenes y, en palabras del esteticista Kendall Walton (1984): “las imágenes son transparentes porque permiten una percepción literal”. Así pues, la supuesta diferencia se considera tajante: los reporteros cuentan lo sucedido; las grabaciones permiten ver y oír lo sucedido.

Por estas y otras razones epistémicas similares, no es sorprendente que cuando se trató de decidir cuál era la verdad, el informe escrito de las declaraciones de William o una grabación en video del mismo evento, la gente y los expertos no dudaron ni un segundo en elegir este último. Incluso el autor del informe aparentemente fue obligado por las normas epistémicas estándar que rigen el intercambio social a admitir que estaba equivocado y que “malinterpretó” los comentarios de William. Ciertamente, para algunos escépticos, siempre será posible decir que este caso no es un ejemplo real de un periodista cambiando sus creencias de manera responsable y virtuosa cuando se presenta nueva evidencia empírica disponible, y que indica un buen trabajo de especialistas en relaciones públicas para limpiar un comentario vergonzoso, impulsando una nueva versión de la historia y moldeando la percepción pública. Sin embargo, como se argumentó anteriormente, el “final feliz” del escándalo ilustra bien el estatus epistémico privilegiado de las grabaciones en el mundo contemporáneo: son más confiables que los testimonios escritos y orales.

Este estatus privilegiado no debe darse por sentado. De hecho, a menos que algo importante detenga las tendencias técnicas y sociales actuales en la generación de medios sintéticos mediante inteligencia artificial, es probable que la supremacía epistémica de las grabaciones sobre los informes escritos y orales desaparezca pronto y para siempre.

Además, el estado de las técnicas de aprendizaje automático, el rápido avance en el área y la disponibilidad cada vez más fácil de software que utiliza esta tecnología en todo el mundo son elementos que hacen razonable considerar la idea de que, en este momento, en 2022, las grabaciones en video ya no son ventanas obvias a hechos concretos del mundo real. La existencia de deepfakes (videos falsificados extremadamente realistas que se producen mediante inteligencia artificial) justifica pensar que, cuando haya conflicto, las grabaciones no siempre, y quizás ni siquiera la mayoría de las veces, prevalecerán sobre nuestras propias memorias y los testimonios de otros sujetos.

Más preocupante aún, los deepfakes ponen en peligro una de las principales razones que tenemos para evitar mentir al hablar de hechos. Como Catherine Kerner y Mathias Risse señalan en un artículo reciente: “hasta la llegada de los deepfakes, los videos eran medios confiables: ofrecían un ‘respaldo epistémico en conversaciones sobre testimonios de otro modo controvertidos” (Kerner & Risse, 2021, p. 99). Es decir, una de las principales razones para no mentir, lo que en la práctica constituye un “respaldo epistémico”, sobre la ocurrencia de ciertos eventos es la “conciencia de fondo” de que dicho evento podría haber sido grabado (Rini, 2020). En contraste, la existencia de deepfakes y su potencial proliferación proporcionan la coartada perfecta para mentirosos ocasionales y habituales, ya que les permite sembrar dudas convincentemente sobre una grabación que muestra que uno está mintiendo.

Para entender mejor la naturaleza revolucionaria desde el punto de vista epistémico de los deepfakes, compárelos con los medios falsos actualmente etiquetados como “shallowfakes”. En principio, los shallowfakes son contenidos manipulados manualmente por individuos humanos. Los videos de Nancy Pelosi6, la presidenta de la Cámara de Representantes de EE. UU., tartamudeando y ebria, son ejemplos de shallowfakes. La grabación de audio del “último discurso7” de John F. Kennedy, el que se suponía que iba a pronunciar la tarde en que fue asesinado en Dallas, Texas, en 1963, es un ejemplo más sofisticado de shallowfake. Estos medios son el resultado directo del trabajo, ingenio y habilidad humanos, y no importa cuán creíbles sean para los espectadores y oyentes, siempre caerán bajo el concepto de shallowfake en la medida en que no sean creados por técnicas de aprendizaje profundo.

Por el contrario, y por definición, los medios falsos generados por técnicas de aprendizaje profundo entran en la categoría de “deepfakes”. Estos falsificaciones son medios visuales y de audio sintéticos puros, ya que son producidos únicamente por inteligencia artificial. Las redes generativas antagónicas (GANs, por sus siglas en inglés) se entrenan y se ponen en acción con el propósito deliberado de generar medios, el trabajo del “generador”, cuyo carácter fraudulento solo puede ser detectado, el trabajo del “discriminador”, por una inteligencia artificial aún más compleja (Chesney & Citron, 2019; Goodfellow et al., 2014).

Pero técnicamente, esta carrera armamentista no puede durar para siempre. Un punto importante a destacar es que el “juego lleva a ambos equipos a mejorar sus métodos hasta que las falsificaciones sean indistinguibles de los artículos genuinos” (Goodfellow et al., 2014, p. 1). Enmarcado de esta manera, el proceso adversarial entre modelos generativos y modelos discriminativos acabará creando deepfakes perfectos. El “juego del gato y el ratón” se convertirá en un “juego de gato y gato” y ninguna detección automatizada podrá adelantarse al trabajo del generador (Engler, 2019). Aquí, apelar a los órganos sensoriales humanos desnudos para discriminar originales de falsificaciones es obsoleto y completamente ingenuo. Los deepfakes, en este sentido, representan un salto cuántico en el antiguo oficio de la falsificación.

En la actualidad, la tecnología de deepfakes se emplea en gran medida para producir pornografía: la empresa de ciberseguridad Deeptrace ha informado que los videos pornográficos deepfake representan el 96 % del número total de videos deepfake en línea (Ajder et al., 2019).

Varias plataformas en línea para adultos ofrecen videos deepfake que falsamente muestran a cientos de celebridades de diferentes países participando en todo tipo de encuentros sexuales. Un aspecto particularmente perturbador de este uso de técnicas de aprendizaje profundo para falsificar medios es que no solo las celebridades son víctimas de la sofisticada pornografía de “intercambio de rostros”. Como sucede, hay docenas de sitios web que ofrecen servicios gratuitos y prémium para crear videos deepfake sorprendentemente convincentes basados en datos pictóricos subidos por cualquier persona con acceso a Internet. Ciertamente, “la pornografía falsa asistida por IA está aquí y todos estamos j*didos” (Cole, 2017).

El audio generado por inteligencia artificial (síntesis de voz) es igual de inquietante. Adobe Voco, también conocido como el “Photoshop para la voz”, permite a los usuarios cargar grabaciones de voz reales para generar audios falsos hiperrealistas. No sin orgullo, un representante de Adobe dijo frente a un auditorio lleno: “Ya hemos revolucionado la edición de fotos. Ahora es el momento de que nos ocupemos del audio8”.

Voco puede tomar la grabación de voz de alguien y generar a partir de ella un audio que parece ser el hablante original pronunciando frases que esta persona nunca dijo antes. Es revelador que Adobe decidió no lanzar este nuevo software al mercado después de recibir una ola de críticas centradas en las amenazas de seguridad que probablemente causará el uso indebido de este software9.

Ahora, la principal preocupación epistémica a la luz de la posible ubicuidad de los deepfakes no es que vayamos a ser engañados masivamente. Tal escenario no es probable. Y ciertamente, no todo es negativo en lo que respecta a la utilización de deepfakes. Hay numerosos empleos beneficiosos concebibles. Por ejemplo, las personas que sufran pérdida permanente del habla podrán crear audios deepfake utilizando sus voces originales. Además, será posible generar videos deepfake educativos empleando imágenes de personas que murieron hace décadas.

La principal preocupación que debemos tener proviene del hecho de que solo unos pocos deepfakes que eventualmente lleguen a las noticias no solo podrían motivar, sino también justificar en última instancia, una desconfianza general en las grabaciones de video y audio. Entre otras razones imaginables, los deepfakes podrían ser noticia porque causaron que políticos perdieran elecciones, personas inocentes fueran condenadas o despedidas de sus trabajos o incluso asesinadas. En este escenario, los videos ya no serán más confiables que simples palabras escritas y dibujos que representan un evento. No permitirán ver y escuchar lo que sucedió. No serán “transparentes”. Como resultado, los medios de comunicación se verán fatalmente erosionados.

La desconfianza global y no el engaño global podría ser la consecuencia final de los deepfakes. Y, por supuesto, si un nuevo escándalo real tuviera lugar en ese escenario epistémico no implausible, ningún video salvaría el nombre del protagonista avergonzado.

Notas

[1] Jones, T. (2022, 9 marzo). William and Kate reveal Charlotte and George quiz them about Ukraine war. The Independent. https://www.independent.co.uk/news/uk/ukraine-charlotte-kensington-palace-europe-prince-george-b2032253.html. Como nota adicional, PA Media (antes The Press Association) es la única agencia de noticias con acceso a todos los compromisos diarios, ocasiones de Estado de alto nivel y viajes de la Familia Real Británica. Ver: https://pa.media/royal-family-collection/ ︎

[2] Ver: https://web.archive.org/web/20220310004810/https:/twitter.com/scobie/status/1501699001489448965

[3] Ver: https://twitter.com/LizzieITV/status/1501897141282910220

[4] Ver: https://twitter.com/RoyalReporter/status/1501901966565330947

[5] Furness, H. (2022, 10 marzo). The problem with Prince William’s ‘racist’ comments? They’re fake news – he didn’t say them at all. The Telegraph. https://www.telegraph.co.uk/royal-family/2022/03/10/real-problem-prince-williams-racist-ukraine-comments-didnt-say/

[6] Harwell, D. (2019, 24 mayo). Facebook acknowledges Pelosi video is faked but declines to delete it. Washington Post. https://www.washingtonpost.com/technology/2019/05/24/facebook-acknowledges-pelosi-video-is-faked-declines-delete-it/

[7] Droga5 Dublin. (2018, 25 abril). JFK Unsilenced Speech Highlights. YouTube. https://www.youtube.com/watch?v=fOiDO8BWzfk

[8] BBC News. (2016, 7 noviembre). Adobe Voco «Photoshop-for-voice» causes concern. https://www.bbc.com/news/technology-37899902

[9] También recomiendo escuchar este audio, generado por el laboratorio de IA Dessa utilizando un sistema de aprendizaje profundo de texto a voz llamado “RealTalk”. La voz falsa del animador Joe Rogan parece ser indistinguible de la real. Esta combinación de deepfakes de audio y video también vale la pena ver.

Bibliografía (en inglés)

Ajder, H., Patrini, G. Cavalli, F., & Cullen, L. (2019). The state of deepfakes: Landscapes, threats, and impact. Deeptrace. https://regmedia.co.uk/2019/10/08/deepfake_report.pdf

Chesney, R., & Citron, D. (2019). Deepfakes and the new disinformation war. Foreign Affairs98(1), 147-155.

Cole, S. (2017, December 12). AI-assisted fake porn is here and we’re all fucked. Vice. https://www.vice.com/en/article/gydydm/gal-gadot-fake-ai-porn

Engler, A. (2019, November 14). Fighting deepfakes when detection fails. Brookings Institution. https://www.brookings.edu/research/fighting-deepfakes-when-detection-fails

Goodfellow, I.J., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., Courville, A.C., & Bengio, Y. (2014).Generative adversarial nets. NIPS.

Kerner, C., & Risse, M. (2021). Beyond porn and discreditation: Epistemic promises and perils of deepfake technology in digital lifeworlds. Moral Philosophy and Politics8(1), 81-108.

Rini, R. (2020). Deepfakes and the epistemic backstop. Philosopher’s Imprint20(24), 1-16.

Walton, K. (1984). Transparent pictures: On the nature of photographic realism. Critical Inquiry11(2), 246-277.

Imagen | Flickr

Artículo original de:

David Villena (Daily Philosophy):
Doctor en Filosofía. Profesor en el Departamento de Filosofía de la Universidad de Hong Kong.

Traducido por:

Miguel Ángel (CEO de Filosofía en la Red):
Mtroe. en filosofía y valores, licenciado en psicología organizacional; actualmente cursa también la carrera de filosofía; antes estudió enfermería, ciencias religiosas y derecho.

El presente artículo es una traducción de Miguel Ángel G. Calderón del texto Deepfakes, deception, and distrust, de David Villena, que ha sido traducido con autorización de Daily Philosophy como parte de la alianza de colaboración que tenemos con ellos.