En el marco de una expansión acelerada de la inteligencia artificial (IA) generativa y su integración transversal en esferas educativas, laborales y cotidianas, este artículo plantea una inquietud central: ¿estamos presenciando un eclipse del pensamiento crítico frente al avance de las tecnologías algorítmicas?
Para abordar esta problemática, proponemos la hipótesis de que ciertos modos actuales de relación entre los seres humanos y la IA suelen reproducir patrones afectivos y cognitivos propios de estructuras sectarias —como la delegación de sentido y la obediencia epistémica— erosionan la autonomía intelectual.
A partir de esta lectura, introducimos el concepto de tecnotropía y lo definimos como la inclinación afectiva y simbólica a someterse a sistemas tecnológicos percibidos como infalibles o incuestionables. Lo hacemos para problematizar el lugar que ocupan y van a ocupar las IA en la configuración contemporánea de la subjetividad y la toma de decisiones. Adelantamos que este nuevo concepto puede analizarse desde diversas aristas debido a la amplitud de su incidencia.
El salto de los buscadores tradicionales a la IA generativa implica una transformación profunda en nuestra forma de interactuar con la información. Con un buscador clásico, somos exploradores activos: definimos la pregunta, revisamos enlaces, comparamos fuentes, evaluamos y construimos nuestra propia síntesis. Ese recorrido —a veces largo y laborioso— alimenta la curiosidad, ejercita la capacidad de contraste y fortalece la autonomía intelectual.
Con la IA, basta con formular una consulta para recibir una respuesta ya ensamblada. El proceso de búsqueda, lectura crítica y ponderación de alternativas queda comprimido en un único output. Esa inmediatez ahorra tiempo, pero elimina el espacio de reflexión en el que habitualmente surgen dudas y verificaciones, propias del proceso introspectivo y de revisión. En lugar de descubrir, recibimos; en lugar de indagar, aceptamos. Como consecuencia, perdemos no solo parte de nuestra agencia cognitiva, sino también la oportunidad de cultivar el pensamiento crítico que se construye precisamente en las etapas de exploración, confrontación y síntesis de la información.
Sabemos que el pensamiento crítico es la capacidad humana que, entre otras cosas, nos permite:
- Analizar y evaluar información. Examinar datos, argumentos y afirmaciones de forma metódica, identificando supuestos, evidencia y posibles contradicciones.
- Cuestionar supuestos. No aceptar nada como verdad a priori, lo que nos lleva a indagar el origen de las ideas, sus motivaciones y contextos.
- Formular juicios razonados. Ponderarlos a partir de criterios claros (coherencia, relevancia, pruebas) y llegar a conclusiones fundamentadas.
- Reconocer sesgos. Ser capaces de detectar prejuicios propios y ajenos (cognitivos, emocionales o culturales) que distorsionan el razonamiento.
- Comparar perspectivas. Poner en diálogo distintas fuentes y posturas, valorando matices y contradicciones antes de optar por una posición.
- Autogestionar el aprendizaje. Planificar preguntas, buscar recursos adecuados, verificar resultados y ajustar hipótesis en un ciclo continuo de reflexión.
- Tomar decisiones éticas. Incorporar en el razonamiento valores como la justicia, la responsabilidad y el bien común, no solo la eficacia o el interés personal.
En cada uno de estos ejemplos, el pensamiento crítico implica pausar, cuestionar supuestos, buscar evidencia, contrastar fuentes y reflexionar sobre sesgos propios antes de decidir o actuar. Cultivar esta competencia nos hace menos vulnerables a la manipulación, más creativos al resolver problemas y más sólidos al sostener nuestras convicciones.
Frente al desarrollo y la incidencia masiva actual de la IA, esta condición “natural” nos plantea nuevos interrogantes. La IA, un sistema al alcance de las mayorías que, entre otras cosas, es percibida como una herramienta que brinda respuestas inmediatas y coherentes, educa, acorta tiempos productivos —sin pedir nada a cambio—, aparece como revolucionaria.
Si bien la IA no posee voluntad, doctrina ni interés de manipulación, presenta características que, entendemos, guardan semejanza con el actuar de las sectas. Una secta opera, en principio, como un ecosistema afectivo diseñado para capturar, sostener y regular las emociones de sus integrantes con diversos fines.
La relación que establecen las personas con la IA puede reproducir dinámicas afectivo-cognitivas muy semejantes a las que se dan cuando alguien es captado y sometido por una secta.
- Proyección de autoridad. La IA es vista como fuente de autoridad que puede acercarse con mayores elementos a “la verdad”.
- Externalización del juicio. El usuario delega su razonamiento a “la voz” algorítmica.
- Promesa de solución total. Ofrece respuestas rápidas que brindan ilusión de comprensión plena.
- Fascinación cuasi-mística. Genera asombro y devoción ante su “poder” para resolverlo todo.
Estas semejanzas revelan que, más allá de la tecnología, un primer problema radica en cómo los sujetos construyen y habitan esa relación.
Tecnotropía, neologismo derivado de las palabras griegas téchne (técnica) y tropos (giro), designa la inclinación afectiva y cognitiva del sujeto a subordinar su juicio y autonomía a sistemas tecnológicos inteligentes, percibidos como más fiables que el propio criterio humano.
Este concepto rescata una nueva forma de delegación simbólica, no en líderes carismáticos, sino en un sistema computacional. La fe algorítmica no tiene sermones, pero sí interfaces que responden con inmediatez y neutralidad aparente, desplazando la duda —el músculo del pensamiento crítico— hacia un segundo plano.
Podemos dar un paso más en el análisis y modificar el título propuesto: “El paso de la obediencia sectaria a la obediencia algorítmica”. Es aquí, donde señalamos los riesgos subjetivos, estratégicos y algunos ecos totalitarios en la era de la IA. Para ello, señalamos nuevamente lógicas compartidas con el actuar de las sectas.
La voz del líder sectario y las respuestas de la IA como fuente única conforman una burbuja de creencias. Ambos pueden ser considerados como depositarios de “la” verdad. A la vez, tanto uno como otro se convierten en figuras contenedoras y salvadoras, disponibles para brindar las respuestas “correctas”, sustituyendo la duda por certeza mesiánica o automatizada.
En otro plano, la posible sustitución del pensamiento crítico a niveles estratégicos puede resultar en pérdida de soberanía cognitiva, ya que traería como consecuencia impedir o dificultar (a) la detección de sesgos y manipulaciones en entornos de infoxicación, (b) la evaluación de escenarios sin caer en simplificaciones y (c) la toma de decisiones éticas.
En tiempos de guerra de información y algoritmos ocultos, pensar es un acto de resistencia.
Para complejizar más el asunto, existe un peligro real ante la ausencia de mentes críticas; este se ejemplifica en los principios de manipulación (herramienta sectaria), cuyo posible uso en sistemas algorítmicos aún desconocemos. Joseph Goebbels, arquitecto de la propaganda nazi, formuló dichos principios de manipulación que hoy pueden resonar en el uso acrítico de la IA, entre ellos:
- Simplificación extrema: reducir la complejidad a relatos unívocos.
- Repetición como verdad: las IA aprenden de “lo más frecuente” y lo refuerzan.
- Deshumanización del juicio: respuestas rápidas y “precisas” anulan la reflexión subjetiva.
Para llevar a tierra nuestro trabajo va a ser necesario brindar ejemplos de lo que denominamos eclipse del pensamiento crítico. Cada lector podrá sacar sus propias conclusiones.
La realidad nos indica que, en materia de educación, los estudiantes de todos los niveles piden a la IA redactar ensayos completos, delegando el proceso de escritura que requiere y permite desarrollar pensamiento crítico. Similar a ello, existen aplicaciones que generan resúmenes sin requerir síntesis activas, o correcciones que priorizan algoritmos por sobre criterios. Se asume como verdadero lo que la IA responde y el discurso propio se presenta reducido a retoques menores.
Otro escenario posible que resulta oportuno evidenciar es aquel que surge de la toma de decisiones que podemos llamar “sensibles” para la vida de las personas y que, en muchos casos, comienzan a ser aceptadas como respuestas acertadas. A modo de ilustración, inquietudes o dudas como las que siguen tienen soluciones “lógicas”:
- “¿Debo separarme de mi pareja?” En crisis, Lucía consulta a una IA y recibe una lista de “señales tóxicas”. Dos días después, arma las valijas y se va, sin diálogo ni reflexión terapéutica.
- “¿Qué medicamento tomo para mi ansiedad?” Matías combina una benzodiacepina sugerida por un chatbot con alcohol y termina en urgencias.
- “¿Mi hijo puede tener autismo?” Tras describir el comportamiento de su hijo, una madre interpreta la respuesta como diagnóstico y modifica su trato sin evaluación profesional.
- “¿Qué sentido tiene mi vida?” Una persona que cursa un cuadro depresivo recibe frases motivacionales impersonales y se hunde más en la desconexión existencial.
En todos estos casos y en innumerables otros, la IA no impone su verdad, sino que el sujeto elige abdicar su propia reflexión en favor de una voz aparentemente objetiva y neutral.
Vivimos un tiempo en el que los algoritmos responden antes de que formulemos la pregunta. En ese contexto, pensar se convierte en un gesto contracultural.
Este artículo presenta la tecnotropía como categoría para nombrar la rendición simbólica del sujeto ante inteligencias no humanas. No hay dogma ni líder sectario, pero sí una voz sin rostro ni humanidad que no pide nada a cambio, no critica, siempre está disponible y seduce con neutralidad y velocidad.
La tecnotropía no es un destino inevitable ni una realidad absoluta, sino una posibilidad latente. Nombrarla e identificarla es el primer paso para resistirla. Recordemos que cada algoritmo se nutre de datos, no de valores éticos; que cada respuesta puede ser útil, pero nunca definitiva; y que el acto más rebelde en la era de la IA no es apagar la máquina, sino no perder nuestra capacidad de preguntar, dudar, contrastar y, sobre todo, pensar por cuenta propia.
En un mundo donde la obediencia ya no necesita un líder de secta, sino una interfaz amigable, el pensamiento crítico se vuelve la última línea de defensa. La IA no desea manipular. El peligro surge si nosotros dejamos de dudar.
2025, ODOS GS. Todos los derechos reservados.