Publicidad Ai
Publicidad Ai

Andalucía

La opinión de Emily Katherine Dawson sobre el dilema de la privacidad que genera la IA

Emily Katherine Dawson lo tiene claro: estamos entrando en territorio delicado y hace falta hablarlo sin rodeos

Publicidad AiPublicidad AiPublicidad AiPublicidad AiPublicidad Ai Publicidad Ai
  • Emily Katherine Dawson.

Imagina que cada movimiento online que haces es una pieza más de un rompecabezas que ni siquiera sabías que estabas construyendo. Cada clic, cada búsqueda, cada foto que subes. Ahora imagina que ese rompecabezas no lo estás completando tú, sino una inteligencia artificial que aprende de ti, predice tus pasos y, muchas veces, te conoce mejor que tú mismo. De eso hablamos cuando hablamos de IA y privacidad. Y si hay alguien que sabe ponerle palabras —y criterio— a este caos digital, esa es Emily Katherine Dawson.

Emily K Dawson no es una gurú tecnológica al uso. No presume de código, no lanza profecías futuristas desde Silicon Valley. Ella observa, investiga y, sobre todo, comunica. Graduada en la Universidad de Texas en Austin, ha dedicado su carrera a analizar cómo la inteligencia artificial impacta en nuestra vida diaria. Ha escrito sobre ética, sobre innovación y sobre los puntos ciegos que a menudo pasamos por alto mientras abrazamos cada nueva app que nos promete hacernos la vida más fácil.

Charlamos con ella para entender qué está pasando con la privacidad en la era de la IA. Lo que sigue no es una entrevista al uso, sino un recorrido por sus ideas, sus preocupaciones y sus propuestas para un futuro más equilibrado entre tecnología y derechos.

“La privacidad ya no es lo que era. Y eso no es necesariamente bueno”

Emily Katherine Dawson.

Emily arranca con una idea que no deja indiferente: “El concepto clásico de privacidad está en crisis. La mayoría de nosotros todavía piensa que mientras no publiquemos algo en redes sociales, estamos a salvo. Pero la realidad digital no funciona así”. Para ella, la IA no necesita que reveles información directamente. Basta con observar tu comportamiento, tus patrones de uso, tu ubicación, tus horarios.

“No necesitas decirle a una app que te gusta la comida mexicana. Si cada viernes pides tacos a la misma hora, el sistema lo sabrá antes de que tú seas consciente de esa rutina”, comenta. Y ese tipo de inferencia no es ciencia ficción. Es el núcleo de los algoritmos que hoy toman decisiones sobre qué vemos, qué compramos, a quién conocemos y, en ciertos contextos, incluso si accedemos a un trabajo o un crédito.

El problema no es que nos vigilen, sino que no sabemos cómo

Según Emily, una de las grandes trampas de la era de la Inteligencia Artificial es la ilusión de control. “Nos dicen que aceptamos las cookies, que damos permiso, pero nadie lee los términos. Y aunque lo hiciéramos, muchas veces no podríamos entenderlos. Son documentos hechos para cumplir, no para informar.”

Lo preocupante, dice, no es tanto que se recojan datos, sino que los sistemas que los analizan y toman decisiones sobre ellos son opacos. “No sabes cómo se procesan esos datos. No sabes qué conclusiones extraen. No sabes si te están clasificando, y mucho menos si lo hacen bien.”

Cuando le preguntamos si existe algo así como el “consentimiento informado” en este contexto, su respuesta es directa: “No, no lo hay. Porque no hay suficiente transparencia. La IA está tomando decisiones sin supervisión, y el usuario medio está completamente fuera del bucle.”

“El dilema real es qué estamos dispuestos a sacrificar a cambio de comodidad”

Una frase que Emily repite varias veces durante nuestra conversación es: “La IA nos facilita la vida… pero también nos la filtra.” Explica que cada servicio que usamos basado en inteligencia artificial —desde Spotify hasta Google Maps— está optimizado para ofrecernos lo que probablemente queremos. Pero ese “probablemente” se alimenta de datos personales.

“Es una especie de contrato silencioso: tú me das tu privacidad, yo te doy eficiencia. El problema es que nunca firmamos ese contrato de forma consciente. Y, sobre todo, no sabemos quién más está leyendo esa letra pequeña.”

Para Emily, uno de los riesgos más graves es la normalización de esa cesión. “Estamos tan acostumbrados a entregar datos que ya ni lo cuestionamos. Pero si el día de mañana un algoritmo empieza a decidir si mereces o no un seguro médico basado en tus hábitos online, entonces empezaremos a preocuparnos. Aunque ya será tarde.”

El lado oscuro de la personalización

Uno de los aspectos que más la inquietan es la capacidad de la IA para crear perfiles increíblemente detallados de las personas. “No se trata solo de saber que compras café cada mañana. Se trata de saber cuándo estás triste, cuándo tienes insomnio, cuándo estás empezando una relación o saliendo de una ruptura.”

Emily advierte que el hiper conocimiento algorítmico puede ser usado con fines muy cuestionables. Desde campañas políticas diseñadas para manipular emociones, hasta seguros que ajustan precios en función de tu salud mental deducida por tus búsquedas.

“Cuando los datos se vuelven predictivos, la privacidad deja de ser un derecho. Se convierte en una ilusión.”

¿Y la regulación? Un paso detrás de la tecnología

Le preguntamos si ve alguna solución. ¿Hay esperanza? ¿Puede la ley protegernos en este escenario?

“Sí, pero va muy por detrás”, responde sin dudar. Para Emily, el gran desafío es que los marcos legales están pensados para tecnologías estáticas, mientras la IA es dinámica, cambiante, veloz. “No puedes regular una herramienta que evoluciona cada semana con una ley que tardará cinco años en aprobarse.”

Sin embargo, no es pesimista. Cree que se pueden establecer principios básicos —como la transparencia algorítmica, el derecho a no ser perfilado sin consentimiento, o la posibilidad de auditar sistemas automatizados— que actúen como cimientos éticos.

Educar como resistencia

Finalmente, Emily insiste en la educación como herramienta de resistencia. “La gente no necesita ser experta en IA, pero sí debe entender cómo funciona, aunque sea a nivel básico. Saber qué datos entregas, cómo se usan, y cómo puedes protegerte.”

Propone campañas de concienciación, clases en escuelas y universidades, y sobre todo una mayor exigencia ciudadana a gobiernos y empresas. “La privacidad no se defiende sola. Hay que exigirla, y para eso hay que entender lo que está en juego.”

Un futuro con IA, pero con límites

Emily no es tecnófoba. No cree que debamos rechazar la IA, ni mucho menos. “La inteligencia artificial puede hacer cosas increíbles. Puede ayudarnos a curar enfermedades, reducir el tráfico y optimizar recursos. Pero hay que ponerle límites. Y esos límites tienen que respetar algo básico: la dignidad humana.”

Cierra con una frase que, más que una conclusión, suena a llamada: “La privacidad no debería ser el precio que pagamos por vivir en el futuro. El reto está en diseñar un futuro en el que no tengamos que elegir entre ser eficientes y ser libres.”

Envía tu noticia a: participa@andaluciainformacion.es

TE RECOMENDAMOS

ÚNETE A NUESTRO BOLETÍN

Sánchez anuncia un plan de 14.100 millones para proteger la economía de los aranceles
Mientras el Ayuntamiento de Estepona presume de obras, los negocios mueren en silencio