HODIO: el nuevo debate sobre la libertad de expresión
La herramienta presentada por el Gobierno para medir el discurso de odio en redes sociales abre un nuevo debate jurídico y político sobre los límites entre la lucha contra la discriminación y la protección de la libertad de expresión.
El pasado miércoles 11 de marzo, fecha en la que España recuerda los trágicos atentados del 11-M, el presidente del Gobierno celebró en la Galería de las Colecciones Reales de Madrid la denominada Primera Cumbre contra el Odio. Durante el encuentro se presentó la herramienta HODIO (Huella del Odio y la Polarización), destinada a medir el discurso de odio en redes sociales.
Según explicó el Ejecutivo, el objetivo del sistema sería “medir de forma sistemática la presencia, la evolución y la amplificación de los discursos de odio en las plataformas digitales”, con el fin de analizar su impacto y posteriormente instar a las plataformas tecnológicas a reforzar sus mecanismos de moderación de contenidos.
Esta iniciativa ya había sido adelantada por el presidente del Gobierno durante su intervención en el World Governments Summit celebrado en Dubái el 3 de febrero de 2026, donde anunció la intención del Ejecutivo de impulsar herramientas destinadas a analizar y controlar la difusión de mensajes considerados de odio o polarización en redes sociales como X (antes Twitter), Facebook, Instagram, TikTok o YouTube, mediante sistemas de inteligencia artificial y análisis especializado.
En aquella intervención también se mencionaron otras posibles medidas regulatorias, entre ellas la limitación del acceso de menores de 16 años a determinadas redes sociales, la posible responsabilidad legal de los directivos de las plataformas, la tipificación de la manipulación de algoritmos, la investigación de determinadas prácticas en plataformas digitales y la creación de una alianza europea para reforzar la regulación del entorno digital.
Algunos analistas y comentaristas políticos consideran que este tipo de iniciativas suelen aparecer en momentos políticamente sensibles y las interpretan como una estrategia destinada a desplazar la atención pública hacia otros debates, alejándola de cuestiones como los distintos presuntos casos de corrupción que afectan a personas cercanas al entorno del partido en el Gobierno.
Más allá de las interpretaciones políticas, la utilización del término “odio” y la creación de un sistema destinado a medir este tipo de mensajes han generado un intenso debate jurídico y social. Diversos juristas y analistas señalan que la definición de lo que constituye discurso de odio puede resultar ambigua y depender en gran medida de los criterios utilizados para su clasificación. Por ello, algunos sectores advierten de la necesidad de que cualquier herramienta de este tipo funcione con criterios objetivos, transparencia y supervisión independiente, evitando posibles sesgos ideológicos.
"Conviene distinguir entre tres conceptos diferentes: odio, discurso de odio y delito de odio"
Para comprender mejor este debate conviene distinguir entre tres conceptos diferentes: odio, discurso de odio y delito de odio. El odio es un sentimiento personal de rechazo u hostilidad. El discurso de odio hace referencia a expresiones públicas que promueven la hostilidad o la discriminación contra determinados colectivos. El delito de odio, en cambio, se refiere a conductas concretas tipificadas por la ley.
Conviene recordar que la legislación sobre delitos de odio tiene como finalidad proteger a determinados colectivos frente a la violencia, la discriminación o la persecución por motivos ideológicos, religiosos, étnicos o sociales.
En España, este delito se encuentra regulado principalmente en el artículo 510 del Código Penal, que castiga conductas como la incitación pública al odio, la discriminación o la violencia contra personas o grupos por motivos de ideología, religión, origen étnico, nacionalidad, sexo, orientación sexual o discapacidad, así como la difusión de mensajes que promuevan ese odio o la humillación grave de determinados colectivos.
También conviene recordar que el delito de odio no es una creación reciente. Su origen se remonta a las legislaciones internacionales surgidas tras la Segunda Guerra Mundial, destinadas a prevenir la discriminación racial o religiosa y la incitación a la violencia contra determinados colectivos. Estas normas fueron incorporándose progresivamente a las legislaciones nacionales de numerosos países europeos, así como a instrumentos jurídicos promovidos por instituciones como el Consejo de Europa o la Unión Europea, entre ellos la Directiva europea contra el racismo y la xenofobia (2008) o la normativa digital conocida como Digital Services Act (DSA).
Cabe señalar, además, que la monitorización del discurso de odio ya se realiza en gran medida por parte de las propias plataformas digitales. Según distintos informes del Observatorio Español del Racismo y la Xenofobia (OBERAXE) elaborados mediante el sistema de monitorización FARO, las empresas tecnológicas eliminan una parte significativa de los contenidos denunciados.
De acuerdo con estos datos, Facebook retira aproximadamente el 66 % de los contenidos reportados, Instagram cerca del 87 %, TikTok alrededor del 54 % y YouTube alcanza cifras cercanas al 98 %. En el caso de X (antes Twitter), los informes del sistema FARO indican que la plataforma llega a retirar alrededor del 84 % de los mensajes denunciados.
"Las propias redes sociales ya cuentan con mecanismos internos de moderación y eliminación de contenidos"
Estos datos muestran que las propias redes sociales ya cuentan con mecanismos internos de moderación y eliminación de contenidos, lo que ha llevado a algunos críticos a cuestionar si la creación de nuevos sistemas de supervisión por parte del Gobierno podría abrir un debate sobre los límites entre la lucha contra el odio y la libertad de expresión.
Según algunos observadores, este proceso regulatorio se ha desarrollado de forma gradual en los últimos años. En primer lugar, desde el Gobierno se comenzó a utilizar el término “seudomedios” para referirse a determinados medios considerados difusores de desinformación. Posteriormente se plantearon iniciativas destinadas a reforzar la transparencia sobre la financiación y propiedad de los medios de comunicación, así como diversas propuestas regulatorias relacionadas con las redes sociales.
Entre ellas se han mencionado medidas como limitar el acceso de menores a determinadas plataformas digitales o exigir mayores responsabilidades a las empresas tecnológicas sobre los contenidos que alojan.
Desde una perspectiva crítica, algunos analistas consideran que el concepto de discurso de odio podría convertirse en una herramienta susceptible de ser utilizada en el terreno político para desacreditar o limitar a adversarios ideológicos. Por ello, sostienen que la aplicación de estas normas debe realizarse siempre de forma estrictamente imparcial e independiente.
Otros expertos sostienen, por el contrario, que herramientas destinadas a detectar discursos de odio pueden contribuir a reducir la difusión de mensajes que incitan a la violencia o la discriminación en internet, siempre que se apliquen con criterios transparentes y con supervisión independiente.
“El verdadero desafío no es solo combatir el odio, sino hacerlo sin silenciar el debate democrático”
La cuestión central que surge en este debate es evidente: ¿quién decide qué es odio? ¿El Gobierno, las plataformas tecnológicas, los jueces o los algoritmos de inteligencia artificial?
También surgen otras preguntas relevantes: ¿puede una inteligencia artificial identificar correctamente el odio?, ¿qué sesgos pueden influir en su clasificación?, ¿quién supervisa esos sistemas?
Este debate no es exclusivo de España. En muchos países democráticos se está discutiendo actualmente cómo equilibrar la protección frente a la discriminación y la violencia con la defensa de la libertad de expresión.
En Estados Unidos, por ejemplo, la libertad de expresión tiene una protección constitucional muy amplia y el llamado discurso de odio solo se sanciona cuando incita directamente a la violencia. En cambio, en muchos países de la Unión Europea existen leyes que penalizan la incitación al odio o la discriminación y obligan a las plataformas digitales a retirar contenidos ilegales. Países como Alemania y Francia cuentan con legislaciones especialmente estrictas en materia de incitación al odio, mientras que el Reino Unido exige a las plataformas actuar contra contenidos dañinos mediante su normativa reciente. En Hispanoamérica también existen leyes contra la incitación al odio, aunque su aplicación varía según el país.
Muchos gobiernos están adoptando medidas para regular el discurso en redes sociales debido a que estas plataformas han transformado profundamente la comunicación política en los últimos quince años. A diferencia de los medios tradicionales, permiten que cualquier usuario difunda mensajes a gran escala sin intermediarios, mientras que sus algoritmos tienden a priorizar contenidos emocionales o polémicos, lo que puede aumentar la polarización. Al mismo tiempo, se han convertido en herramientas clave de movilización política, especialmente entre los jóvenes.
"Ley contra el Odio de Venezuela contempla penas de hasta veinte años de prisión y permite sancionar o cerrar medios de comunicación"
Algunos analistas advierten, sin embargo, de que el uso político del concepto de “odio” no es nuevo en la historia reciente. En países como Venezuela, Cuba o Nicaragua se han aprobado leyes destinadas oficialmente a combatir el odio o la desinformación, pero que, según diversas organizaciones internacionales y defensores de la libertad de expresión, han sido utilizadas en la práctica para perseguir a opositores, periodistas o ciudadanos críticos con el poder.
Un ejemplo citado con frecuencia es la Ley contra el Odio aprobada en Venezuela en 2017, que contempla penas de hasta veinte años de prisión y permite sancionar o cerrar medios de comunicación por contenidos considerados incitación al odio. Algunos analistas establecen comparaciones con países donde el control estatal del discurso público es mucho más estricto, como China o Corea del Norte.
En este contexto, algunos analistas han recordado las advertencias planteadas por dos grandes distopías del siglo XX: 1984, de George Orwell, y Un mundo feliz, de Aldous Huxley.
Orwell imaginaba una sociedad en la que el poder político controla el lenguaje y el pensamiento mediante la llamada neolengua, un sistema diseñado para limitar la capacidad de los ciudadanos de expresar ideas contrarias al poder. Huxley, por su parte, describía un sistema en el que el control social se ejerce de forma más sutil, a través del entretenimiento y la conformidad colectiva.
Ambas visiones, aunque literarias, siguen utilizándose hoy como advertencia sobre los riesgos que pueden surgir cuando el poder político interviene en la regulación del discurso público sin suficientes garantías jurídicas.
El debate actual gira, por tanto, en torno a cómo interpretar y aplicar estos conceptos en el entorno digital. Algunos juristas consideran que su utilización debe limitarse estrictamente a situaciones claras de incitación a la violencia o discriminación, mientras que otros defienden interpretaciones más amplias para combatir determinados discursos hostiles que circulan en internet.
En conclusión, el debate sobre el llamado discurso de odio refleja una tensión cada vez más visible en las democracias contemporáneas: cómo proteger a la sociedad frente a la violencia o la discriminación sin limitar al mismo tiempo la libertad de expresión que sustenta el pluralismo político. En una era en la que las redes sociales han transformado profundamente la comunicación pública, la aparición de herramientas como HODIO refleja el intento de los gobiernos de adaptarse a esta nueva realidad digital. Sin embargo, cualquier regulación del discurso público debe aplicarse con prudencia, transparencia y garantías jurídicas sólidas para evitar que, en nombre de combatir el odio, se debilite uno de los principios fundamentales de las sociedades democráticas: la libertad de expresión.