Inteligencia artificial y privacidad familiar

0
641

Artículo del profesor M. Carbajo-Núñez, publicado en el  blog de la Academia Alfonsiana

El desarrollo de la inteligencia artificial [= IA] está aumentando la comodidad en la vida familiar[i], pero también está introduciendo nuevas formas de vigilancia doméstica que, en ocasiones, pueden limitar su autonomía en la toma de decisiones.

La paradoja del «hogar inteligente»

Los dispositivos conectados al Internet de las cosas (IoT), como los asistentes virtuales (Alexa, Google Home, Siri), las cámaras de seguridad, los electrodomésticos inteligentes y los juguetes interactivos, están transformando el entorno familiar en un «hogar inteligente». Estas tecnologías proporcionan mayor comodidad y eficiencia, pero también plantean riesgos significativos para la privacidad de la vida familiar.

Estos dispositivos recopilan continuamente datos sobre las rutinas, los hábitos, las conversaciones y las preferencias de los miembros del hogar. Esta información puede utilizarse posteriormente para personalizar la publicidad, influir en la elegibilidad de los seguros o servir como prueba en posibles disputas legales. En 2023, Amazon reconoció que había utilizado las grabaciones de Alexa para entrenar modelos de IA, incluso después de que algunos usuarios hubieran solicitado que se eliminaran dichas grabaciones.

Uso de la IA para predecir la dinámica familiar

Las conclusiones generadas por los sistemas de IA no son necesariamente objetivas o neutrales, ya que dependen de cómo se han entrenado estos sistemas y de los criterios que se les han dado para definir lo que constituye una vida familiar «normal».

Algunos servicios sociales, instituciones judiciales y proveedores de atención médica han comenzado a utilizar algoritmos para analizar la dinámica familiar, los hábitos de consumo, los patrones de geolocalización y la actividad en las redes sociales para predecir riesgos como el abandono infantil, la ruptura matrimonial o la inestabilidad económica. Basándose en estos datos, estos sistemas pueden clasificar a las familias según su nivel de «estabilidad», lo que influye en el acceso a las prestaciones sociales, los préstamos bancarios, las hipotecas o los seguros personales.

Estas prácticas plantean serios problemas éticos. Los modelos de IA pueden etiquetar erróneamente a determinadas familias como «de alto riesgo», perpetuando los sesgos estructurales, los estereotipos sociales y la discriminación por motivos de clase, género o etnia. Un ejemplo notorio se produjo en los Países Bajos, donde un algoritmo secreto utilizó criterios discriminatorios para acusar falsamente a miles de familias de fraude fiscal. En Estados Unidos, herramientas como eScore también han sido acusadas de basarse en datos potencialmente discriminatorios para evaluar la solvencia de las familias.

Además, muchas aplicaciones de control parental utilizan la IA para supervisar los mensajes y la actividad en línea de los adolescentes. Aunque se comercializan como herramientas de protección, a menudo crean desconfianza entre padres e hijos y difuminan la línea entre la protección afectuosa y la vigilancia absoluta. Aplicaciones como Bark o mSpy, que incorporan funciones de reconocimiento de voz y geolocalización, pueden utilizarse fácilmente para ejercer una vigilancia encubierta dentro del hogar.

Conflictos familiares y perfiles algorítmicos

Las herramientas de IA pueden identificar patrones y dinámicas familiares mediante el análisis de numerosas fuentes, como redes sociales, artículos de prensa, registros judiciales y otros documentos públicos relacionados con conflictos matrimoniales, procedimientos de divorcio o casos de custodia de menores. También pueden procesar fotos, vídeos y mensajes digitales compartidos por personas ajenas a la familia inmediata.

Incluso si el contenido ya era público, la IA puede amplificarlo mucho más allá de su alcance original. Al procesar grandes volúmenes de datos, los sistemas de IA pueden reconstruir perfiles familiares detallados que pueden ser potencialmente estigmatizantes.

Algunos modelos algorítmicos pueden incluso generar contenidos informativos sensacionalistas extrayendo datos de los expedientes judiciales sin garantizar una protección adecuada a los menores implicados.

Conclusión

La rápida expansión de la IA está transformando el hogar en un espacio más cómodo, pero también en un lugar de explotación económica e intrusión tecnológica. Los dispositivos diseñados para facilitar la vida familiar, como los electrodomésticos, los vehículos, los sensores y los asistentes digitales, ahora forman parte del IoT más amplio, una red que recopila e intercambia datos constantemente. Como resultado, incluso las áreas más íntimas del hogar pueden transformarse en valiosas fuentes de información para la comercialización.

La protección de la privacidad familiar, especialmente la protección de los menores, debe tener prioridad sobre los intereses comerciales o las ventajas de la información. Se necesitan regulaciones estrictas para proteger la esfera doméstica de intrusiones tecnológicas no deseadas, estableciendo zonas digitales claras donde las relaciones familiares puedan florecer sin vigilancia ni cuantificación.

Original en ingles

____________________

[i] Estos párrafos se basan en nuestro artículo: Carbajo-Núñez Martín, «Privacidad familiar e Inteligencia Artificial», en Studia Elbląskie 26 (2025) 363-377.