Por Licenciada Inés María Bergés
Inteligencia Artificial: Riesgos, Sesgos, Mitigación y Regulación
El debate sobre la Inteligencia Artificial (IA) en la República Dominicana aún se encuentra en una etapa temprana si se compara con la experiencia internacional. Aunque la Estrategia Nacional de Inteligencia Artificial (ENIA) de 2023 representa un avance importante al plantear
una visión ética, responsable y orientada al desarrollo económico, la experiencia comparada muestra que una estrategia, por sí sola, es insuficiente para prevenir riesgos, sesgos y
afectaciones a los derechos fundamentales.
Los países que hoy lideran el debate ya han vivido casos en los que la falta de regulación permitió que la IA produjera daños significativos.
En el ámbito penal y de seguridad, los ejemplos más conocidos provienen de Estados Unidos. El
caso State v. Loomis (Wisconsin, 2016) evidenció las limitaciones de utilizar sistemas como
COMPAS para evaluar el riesgo de reincidencia. El algoritmo era propietario, opaco e imposible
de auditar, lo que impedía conocer cómo llegaba a sus conclusiones.
Investigaciones como la de
ProPublica demostraron que COMPAS clasificaba desproporcionadamente como “alto riesgo” a
personas negras en comparación con personas blancas en situaciones similares. Los falsos
positivos eran casi el doble para personas negras (45% frente a 23%).
Esto confirmó que los
sesgos algorítmicos no son abstractos, sino que producen desigualdades medibles y con
consecuencias reales en sentencias, libertad y trato judicial.
El reconocimiento facial también ha reproducido sesgos significativos, como demostró NIST (2019), elevando el riesgo de
discriminación en controles policiales o migratorios.
Europa, en cambio, adoptó una postura más preventiva. El Tribunal de Justicia de la Unión Europea, en el caso SCHUFA (2023), sostuvo que las puntuaciones crediticias basadas casi exclusivamente en algoritmos pueden considerarse decisiones automatizadas bajo el artículo 22 del RGPD.
El Tribunal de La Haya, en los Países Bajos, anuló el sistema SyRI por vulnerar la
privacidad y carecer de proporcionalidad y transparencia.
En el Reino Unido, la justicia declaró ilegal el uso de reconocimiento facial en vivo por ausencia de un marco legal claro y garantías
suficientes. Esta acumulación de decisiones judiciales impulsó la creación de la AI Act, la primera Ley Integral de IA del mundo, que estructura las obligaciones según el nivel de riesgo e impone exigencias estrictas de supervisión humana, calidad de datos, trazabilidad y documentación para los sistemas de alto riesgo.
En Estados Unidos, la aproximación sigue siendo fragmentada: existen guías como el AI Risk
Management Framework del NIST o la Orden Ejecutiva 14110 de 2023, pero no hay una Ley Federal Integral. Esto deja la regulación en manos de la autorregulación corporativa y de la
intervención judicial tras los daños. China optó por lo contrario: regulación temprana, estricta y
sectorial. Desde 2021 ha establecido normas obligatorias para servicios algorítmicos, contenidos
sintéticos e IA generativa, exigiendo registros de algoritmos, etiquetados obligatorios, controles
administrativos y prevención de discriminación algorítmica. Aunque su objetivo también incluye control de información, demuestra que es posible regular técnicamente la IA desde fases iniciales.
La República Dominicana se sitúa entre estos modelos. La ENIA muestra ambición estratégica, pero el país carece de infraestructura normativa para acompañar ese avance. Además, la
inversión nacional en I+D (0.03% del PIB) es insuficiente para un desarrollo autónomo, y se
corre el riesgo de una “colonización digital” basada en modelos entrenados en realidades ajenas.
La Ley 172-13 quedó rezagada: no regula decisiones automatizadas, explicabilidad ni perfilado
avanzado. Existen proyectos de Ley en el Congreso, pero ninguno se ha concretado.
A partir de las experiencias internacionales, una futura regulación dominicana debería centrarse
en tres pilares esenciales:
- Prohibición de discriminación algorítmica y derecho a no ser sometido a decisiones automatizadas sin garantías.
- Obligaciones claras para sistemas de alto impacto, especialmente en el Estado, donde proyectos como TAINA o CiudadanIA requieren datos de calidad y procesos transparentes.
- Creación de una autoridad competente con capacidad sancionadora, técnica y de
supervisión para auditar algoritmos y suspender sistemas riesgosos.
El país tiene visión, pero necesita un marco jurídico vinculante que asegure que los beneficios de
la IA se distribuyan equitativamente y que sus riesgos estén controlados. Regular no significa
frenar la innovación, sino orientarla de forma segura, transparente y respetuosa de los derechos
fundamentales.
Sólo así la República Dominicana podrá materializar su aspiración de convertirse en un referente regional de Inteligencia Artificial ética y responsable.



