La adopción de la IA avanza rápidamente, pero podemos construir un futuro donde su uso sea transparente, ético y siempre centrado en las personas.
La inteligencia artificial está cambiando la experiencia del usuario, ofreciendo eficiencia y automatización, pero también desafíos éticos. Su impacto en la privacidad, la creatividad y la toma de decisiones exige un enfoque centrado en las personas, con transparencia, supervisión humana y pensamiento crítico para garantizar su uso responsable.
El entusiasmo ciego por cualquier avance tecnológico puede llevar a ignorar los riesgos y dilemas éticos. La IA ha sido presentada como una revolución sin precedentes, prometiendo productividad ilimitada y soluciones automatizadas en todos los ámbitos. Sin embargo, en medio de este auge, se ha hablado poco de sus implicaciones en la privacidad, la creatividad, la toma de decisiones y la calidad del contenido que consumimos.
Azeem Azhar, en su libro Exponential, analiza cómo el crecimiento acelerado de la tecnología ha dejado descolgadas nuestras estructuras sociales y políticas. La IA es un claro ejemplo de este fenómeno: su evolución avanza a mucha velocidad, mientras que la regulación y la reflexión ética colectiva no pueden alcanzarla. En este contexto, el debate entre tecno-positivismo y tecno-crítica cobra relevancia. ¿Debemos aceptar sin cuestionar la expansión de la IA en todos los ámbitos de nuestra vida? ¿O es necesario frenar y analizar sus consecuencias antes de delegar aún más poder a las grandes tecnológicas?
Este dilema se relaciona con lo que plantea el libro Strategic Design Vocabulary de Dan Hill (libro que no me cansaré de recomendar), que destaca que el diseño no solo debe centrarse en la eficiencia tecnológica, sino en las relaciones, valores e impactos sociales que genera. Aplicado a la IA, esto significa que su utilización no puede medirse solo por los avances técnicos, sino también en la manera en que transforma nuestras dinámicas económicas, sociales y culturales.
La importancia de un uso de la IA más responsable y más humano
El uso de la IA no es solo una cuestión técnica; es también un tema de valores y principios. Para asegurar que la tecnología beneficie a la sociedad sin comprometer derechos fundamentales, es imprescindible establecer un marco ético sólido. A continuación presento cinco puntos clave, con varios ejemplos, que deberían ayudar para guiar su aplicación:
Contexto centrado en las personas
La IA se nutre de la información que tiene disponible, y aunque puede procesar enormes volúmenes de datos, no comprende el contexto humano de la misma manera que lo hace una persona.
Para explicar este hecho con un ejemplo ilustrativo, se puede usar la analogía del porqué la IA genera imágenes de manos tan mal construidas: la IA crea una imagen basada en millones de imágenes, pero las manos humanas son complejas y tienen una estructura concreta que la IA no entiende, y los resultados en la mayoría de ocasiones son un absoluto desastre.

Meme en Reddit, autor original desconocido
Hay dos motivos principales por los que es necesario involucrar a las personas en los procesos de diseño para generar valor: uno es que entender a las personas es algo que la tecnología no puede hacer por sí sola y otro es que hay demasiada información sobre necesidades, comportamientos, etc por descubrir que no va a aparecer en ninguna base de datos.
En Interactius recurrimos al research con enfoques como el Product Discovery porque la tecnología no puede explicar los porqués de determinados comportamientos ni tampoco puede desarrollar empatía, detectar los sesgos cognitivos o los deseos profundos de las personas. Esta detección de necesidades, deseos o problemas no resueltos sólo es posible conseguirlos (y entender los porqués) con técnicas cualitativas.
Otro ejemplo justamente relacionado con la IA fue cuando en Interactius realizamos una serie de workshops con el equipo del departamento financiero de una empresa con el objetivo de identificar oportunidades donde la inteligencia artificial pudiera aportar valor en su día a día. Durante estas sesiones colaborativas, exploramos sus principales retos y necesidades, buscando casos de uso concretos en los que la IA pudiera ayudar a mejorar la eficiencia de sus procesos o incrementar la calidad del trabajo. El objetivo final fue definir posibles soluciones que, posteriormente, el equipo de IT pudiera desarrollar para optimizar sus operaciones y maximizar el impacto en su departamento.
Transparencia en su uso
En muchas organizaciones, la IA ya se usa para generar informes, contenidos y estrategias. Y en muchos casos, ni siquiera hay revisión ni validación humana.
Por ejemplo, hace unos meses conocí el caso de una agencia que propuso nombres de marca obtenidos directamente de una plataforma de IA generativa, sin advertir a sus clientes, que lo sospecharon por lo impersonales que eran las propuestas, y que confirmaron cuando introdujeron un prompt similar en la misma plataforma.
Esta falta de transparencia no solo es muy poco profesional, sino que además resta credibilidad a toda la información no contrastada. Un ejemplo representativo de una funcionalidad que puede potenciar la voluntad de hacer más transparente el uso de la IA podría ser la nueva etiqueta “AI Info” de Meta (anteriormente llamada “Hecho con AI”) en la que se espera que los usuarios de Instagram especifiquen qué partes fueron creadas o editadas mediante IA.

Meta: Our Approach to Labeling AI-Generated Content and Manipulate
Supervisión de los resultados
Aunque la IA puede automatizar procesos, su funcionamiento no es infalible. Un problema recurrente son las llamadas "alucinaciones", donde la IA genera información incorrecta o completamente inventada con una apariencia convincente. Estos fallos pueden tener consecuencias graves si no se detectan a tiempo, reforzando la necesidad de una supervisión constante. La IA no debe reemplazar el criterio humano, sino complementarlo con herramientas que faciliten el trabajo sin perder la capacidad de corrección y evaluación.

Privacidad y protección de datos
Muchas personas y empresas introducen información sensible en plataformas de IA generativa sin considerar los riesgos. Los datos personales, estrategias empresariales y documentos internos deberían ser anonimizados antes de ser utilizados en estos sistemas para evitar filtraciones y usos indebidos por parte de terceros.

Extracting Training Data from ChatGPT
Pensamiento crítico sobre cualquier tecnología
Más allá de aprender a usar la IA, es esencial desarrollar un pensamiento crítico sobre su impacto y sus limitaciones. Si asumimos que todo lo generado por IA es válido sin cuestionarlo, corremos el riesgo de perder el control sobre la información que consumimos y producimos. Fomentar este pensamiento crítico implica tener más capacidad de detectar sesgos, verificar datos y entender cuándo la intervención humana sigue siendo necesaria.
Han existido muchos casos de plataformas de IA que generan información sesgada, pero una de las más recientes ha sido con la aparición de Deepseek con su censura respecto a ciertos temas.

We tried out DeepSeek. It worked well, until we asked it about Tiananmen Square and Taiwan
El futuro del diseño con la IA
El crecimiento acelerado de la IA nos obliga a plantearnos preguntas que no son fáciles de contestar. ¿Cómo aseguramos que esta tecnología beneficie a todas las personas? ¿Cómo evitamos que refuerce desigualdades o elimine trabajos de valor sin ofrecer alternativas viables? Estas son cuestiones que no pueden quedar únicamente en manos de pocas personas; deben formar parte de un debate social amplio.
Espero que estos consejos te sean útiles para integrar la inteligencia artificial de manera ética y responsable en tu proyecto.
Si necesitas ayuda con tu proyecto, puedes contar con nuestros servicios. Te podemos acompañar durante cada una de las fases de diseño estratégico, desde el research inicial hasta hacer realidad tu producto digital.


