Skip to main content

Banner decorativo del curso

GLOSARIO Y CONCEPTOS CLAVES DEL CURSO

Módulo 1: ¿Qué tengo que saber de ética y sistemas de inteligencia artificial para la política pública?

Chatbots: Los chatbots, son aplicaciones de software que simulan mantener una conversación con una persona al proveer respuestas automáticas, las cuales son previamente establecidas por un conjunto de expertos a entradas realizadas por el usuario.

Data commons: Data Commons se puede referir o bien a una plataforma tecnológica para almacenar y manipular conjuntos de datos o al conjunto de principios y estrategias de gobernanza para el uso de tales conjuntos de datos

Data trusts: Data Trust se refiere a un marco repetible de términos y mecanismos para el manejo de la información.

Inteligencia Artificial: Las técnicas de Inteligencia Artifical se basan en el análisis de datos para modelar algún aspecto de la realidad. Comúnmente, los resultados de los modelos de IA se utilizan para predecir y anticipar posibles eventos futuros. Las técnicas de IA incluyen el aprendizaje de máquinas, el aprendizaje profundo de máquinas, entre otros, y se aplica en casos como el de la robótica inteligente, los vehículos autónomos, los agentes virtuales o la visión artificial.

Triaje: El triaje o protocolo de intervención es un método de selección y clasificación de pacientes empleado en la enfermería y la medicina de emergencias y desastres. Evalúa las prioridades de atención, privilegiando la posibilidad de supervivencia, de acuerdo con las necesidades terapéuticas y los recursos disponibles. Trata por tanto de evitar que se retrase la atención del paciente, que empeoraría su pronóstico por la demora en su atención.

SPE: servicios públicos de empleo.

Módulo 2: ¿Cuáles son los retos y las oportunidades del uso ético de sistemas de IA en la política pública? 

Anonimización: Es anónima aquella “información que no guarda relación con una persona física identificada o identificable”. Por lo tanto, por anonimización se entiende el proceso encaminado a convertir los datos en anónimos, de manera que una persona no sea identificable a través de ellos.

Apoyo a la interacción: Esta es una tarea que guarda relación con el apoyo a la interacción entre humanos y máquinas (chatbots, asistentes virtuales y otros).

Datos: Representación de información apta para el almacenamiento, comunicación, interpretación y procesamiento por seres humanos o por medios automáticos.

Detección de eventos: El objetivo aquí es detectar patrones y anomalías.

Discriminación algorítmica: La discriminación algorítmica se refiere al tratamiento desigual proporcionado por un algoritmo a una persona X, con respecto a otra persona Y, debido a un atributo de X, especialmente si ese es un atributo protegido (véase la definición anterior). Esta circunstancia no implica, necesariamente, que la discriminación sea negativa o desventajosa, sino que puede ser también positiva o ventajosa. Esto dependerá de cómo se interpreten los resultados desde el punto de vista ético y social, en un contexto de terminado. Un ejemplo de ello sería una forma de discriminación que afecte positivamente a un grupo protegido o vulnerable (por ejemplo: las personas discapacitadas), al proporcionarle significativamente más recursos que a un grupo privilegiado (por ejemplo: las personas no discapacitadas).

Gobernanza: Aquellas normas de temas digitales (protección de información, historia clínica electrónica, firma digital, SIGED), adopción, creación de estándares, planes y estrategias. La gobernanza en transformación digital se refiere a la ejecución y aplicación de la autoridad sobre la gestión de transformación digital. La gobernanza define quien está a cargo de desarrollar y hacer cumplir el plan de la agenda digital (si existe), cómo se toman las decisiones y cómo y quién cambia este plan.

Hardware: Es la parte física de un ordenador o sistema informático. Toda pieza física que forme parte de los aparatos electrónicos, tales como la memoria de almacenamiento, el procesador central CPU, la tarjeta madre, o el teclado, son llamados hardware. Otros ejemplos: ordenadores; Teléfonos móviles; Teléfonos fijos, radio y TV; Robots; Computación en la nube; Bases de datos; Micrófono, sensor, cámara, altavoz.

Inteligencia Artificial: Las técnicas de Inteligencia Artificial se basan en el análisis de datos para modelar algún aspecto de la realidad. Comúnmente, los resultados de los modelos de IA se utilizan para predecir y anticipar posibles eventos futuros. Las técnicas de IA incluyen el aprendizaje de máquinas, el aprendizaje profundo de máquinas, entre otros, y se aplica en casos como el de la robótica inteligente, los vehículos autónomos, los agentes virtuales o la visión artificial.

Optimización enfocada en objetivos: Se trata de optimizar los procesos dentro de una institución a través de simulaciones de escenarios.

Personalización: El objetivo es desarrollar perfiles de usuarios que, con base en los datos generados por sus propias acciones, vayan mejorando en el tiempo. Las redes sociales y los servicios de transmisión continua (streaming) utilizan esta herramienta para hacer sugerencias personalizadas.

Personas afectadas: Sujetos afectados por el diseño e implementación del Proyecto, de cuyo interés es la protección de sus datos personales.

Predicción: El objetivo es predecir un estado futuro basado en datos históricos.

Problema: Cuestión que se pretende resolver con el desarrollo del Proyecto.

Razonamiento con estructuras de conocimiento: Mediante este tipo de análisis, se establece una relación causal entre los datos disponibles y un evento futuro no existente. A diferencia de la predicción simple, este tipo de análisis se enfoca en la causalidad entre variables.

Reconocimiento: Se basa principalmente en una categorización de imágenes, textos y videos, por medio de la identificación de sus características clave, entre otras cosas.

Rendición de cuentas: Los sistemas de toma/soporte de decisión, incluidos aquellos que utilizan técnicas algorítmicas y de IA, no son entes autónomos, sino que carecen de intencionalidad y de voluntad, no se les pueden atribuir responsabilidades con respecto a las normas sociales, éticas o jurídicas. La rendición de cuentas se refiere a la asunción de esta responsabilidad por parte de una persona, grupo u organización. Se refiere a la obligación de reconocer y aceptar las consecuencias del funcionamiento de un sistema, así como de reparar y satisfacer a las personas afectadas por el mismo. También se refiere a la responsabilidad de prevenir y evitar posibles consecuencias indeseables en el futuro.

Sesgo algorítmico: El sesgo algorítmico se produce en aquellos casos en los que un determinado modelo algorítmico basado en datos produce repetidamente resultados no deseados por las personas que desarrollan, crean y entrenan el sistema. Con frecuencia, pero no siempre, esto se debe a que la recopilación y el uso de datos de entrenamiento están sesgados (sesgo pre-algorítmico). En otras ocasiones, se debe a problemas con la interacción entre un algoritmo y otros procesos, una vez que el algoritmo es aplicado en un contexto concreto (sesgo post-algorítmico). En aquellos casos en los que estos resultados no deseados dan lugar a una forma de discriminación sistemática, que produce resultados desventajosos que involucran a uno o más de los llamados grupos protegidos o vulnerables, se considera que existe un sesgo algorítmico discriminatorio o que se observa discriminación algorítmica.

Software: Corresponde al equipamiento lógico de un sistema informático, que comprende el conjunto de los componentes que hacen posible la realización de tareas específicas. Ejemplos: Inteligencia Artificial; Algoritmos; programas de computadora, incluidos herramientas de edición texto, audio, video y fotos, visualizaciones.

Módulo 3: Marcos de implementación de AI ética y responsable

Datos: Representación de información apta para el almacenamiento, comunicación, interpretación y procesamiento por seres humanos o por medios automáticos.

Deóntica: En filosofía, de lo relacionado con el deber y la obligación como conceptos éticos.

Discriminación algorítmica: La discriminación algorítmica se refiere al tratamiento desigual proporcionado por un algoritmo a una persona X, con respecto a otra persona Y, debido a un atributo de X, especialmente si ese es un atributo protegido (véase la definición anterior). Esta circunstancia no implica, necesariamente, que la discriminación sea negativa o desventajosa, sino que puede ser también positiva o ventajosa. Esto dependerá de cómo se interpreten los resultados desde el punto de vista ético y social, en un contexto de terminado. Un ejemplo de ello sería una forma de discriminación que afecte positivamente a un grupo protegido o vulnerable (por ejemplo: las personas discapacitadas), al proporcionarle significativamente más recursos que a un grupo privilegiado (por ejemplo: las personas no discapacitadas).

Discriminación pasada: Cuando se realiza un aprendizaje con información histórica o previamente etiquetada, los datos de entrenamiento pueden contener sesgos implícitos observados en la sociedad.  

Explicabilidad: La explicabilidad de un sistema de toma de decisiones o de soporte de decisiones se refiere a la posibilidad de que otras personas lo puedan comprender, a través de la información accesible sobre el mismo, también a que este sea reproducible.

Gobernanza: Aquellas normas de temas digitales (protección de información, historia clínica electrónica, firma digital, SIGED), adopción, creación de estándares, planes y estrategias. La gobernanza en transformación digital se refiere a la ejecución y aplicación de la autoridad sobre la gestión de transformación digital. La gobernanza define quien está a cargo de desarrollar y hacer cumplir el plan de la agenda digital (si existe), cómo se toman las decisiones y cómo y quién cambia este plan.

Grupos vulnerables: Los grupos vulnerables o grupos protegidos fundamentales, se definen por la pertenencia a ellos de personas que comparten uno o varios de los siguientes atributos protegidos: Niños y ancianos (edad), Tenencia de una discapacidad o una enfermedad física o mental, Género (mujer) o reasignación de género, Orientación sexual (LGTBIQ+), Origen étnico o racial, color de piel, ascendencia, condición nacional o inmigrante u otros datos relativos al origen de la persona (condición racial), Mujeres embarazadas, Creencias u opiniones políticas, religiosas o filosóficas, Afiliación sindical, Información genética, biométrica o relativa a la salud, Propiedad o recursos materiales, situación socioeconómica y clase social (condición socioeconómica), Información sobre condenas e infracciones penales. Esta no es una clasificación exhaustiva, y debe adaptarse o modificarse, en función de cada contexto.

IEEE: Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, por sus siglas en inglés)

Inteligencia Artificial: Las técnicas de Inteligencia Artificial se basan en el análisis de datos para modelar algún aspecto de la realidad. Comúnmente, los resultados de los modelos de IA se utilizan para predecir y anticipar posibles eventos futuros. Las técnicas de IA incluyen el aprendizaje de máquinas, el aprendizaje profundo de máquinas, entre otros, y se aplica en casos como el de la robótica inteligente, los vehículos autónomos, los agentes virtuales o la visión artificial.

Machine Learning: Aprendizaje automático. Proceso de entrenamiento de datos a un algoritmo de aprendizaje. Luego, el algoritmo de aprendizaje genera un nuevo conjunto de reglas, basadas en inferencias de los datos. Esto está generando un nuevo algoritmo, formalmente denominado modelo de aprendizaje automático. Al usar diferentes datos de entrenamiento, el mismo algoritmo de aprendizaje podría usarse para generar diferentes modelos. p. ej. predicción de patología, etc.

OCDE: Organización para la Cooperación y el Desarrollo Económico

Responsabilidad y Rendición de cuentas: Los sistemas de toma/soporte de decisión, incluidos aquellos que utilizan técnicas algorítmicas y de IA, no son entes autónomos, sino que carecen de intencionalidad y de voluntad, no se les pueden atribuir responsabilidades con respecto a las normas sociales, éticas o jurídicas. La responsabilidad sobre estos mecanismos es, por lo tanto, de aquella/s persona/s o grupos de personas u organizaciones involucradas de forma directa en el diseño, desarrollo e implementación del sistema y el Proyecto que han realizado acciones con unas intenciones concretas y unas consecuencias significativas, especialmente cuando estas consecuencias tienen efectos negativos sobre la vida de otro/s. La responsabilidad algorítmica define la relación entre la parte responsable del sistema y la parte afectada por el mismo. La rendición de cuentas se refiere a la asunción de esta responsabilidad por parte de una persona, grupo u organización. Se refiere a la obligación de reconocer y aceptar las consecuencias del funcionamiento de un sistema, así como de reparar y satisfacer a las personas afectadas por el mismo. También se refiere a la responsabilidad de prevenir y evitar posibles consecuencias indeseables en el futuro.

Sesgo algorítmico: El sesgo algorítmico se produce en aquellos casos en los que un determinado modelo algorítmico basado en datos produce repetidamente resultados no deseados por las personas que desarrollan, crean y entrenan el sistema. Con frecuencia, pero no siempre, esto se debe a que la recopilación y el uso de datos de entrenamiento están sesgados (sesgo pre-algorítmico). En otras ocasiones, se debe a problemas con la interacción entre un algoritmo y otros procesos, una vez que el algoritmo es aplicado en un contexto concreto (sesgo post-algorítmico). En aquellos casos en los que estos resultados no deseados dan lugar a una forma de discriminación sistemática, que produce resultados desventajosos que involucran a uno o más de los llamados grupos protegidos o vulnerables, se considera que existe un sesgo algorítmico discriminatorio o que se observa discriminación algorítmica.

Sesgo algorítmico injusto: Se da cuando el sistema de IA comete errores sistemáticos que crean resultados injustos para subpoblaciones o individuos específicos. Si bien estos sesgos se pueden crear por fenómenos como discriminación pasada, desbalance de clase, fuga de información, cambios temporales, y sobre y subajuste, entre otros, su impacto se manifiesta en cuanto se utilizan para tomar una decisión o acción de política pública. La forma en que se evalúa si el algoritmo está tomando una decisión injusta no es general para todos los problemas e incluso puede ser distinta para el mismo problema en diferentes contextos o países. Esto por cuanto lo que se entiende por “justicia” puede cambiar según la cultura y/o tradición de un grupo de población dado.

Sistemas de toma/soporte de decisión: Un sistema de toma de decisiones es aquel cuyos resultados determinan una decisión a tomar. Un sistema que sirve de soporte en la toma de decisiones es aquel que se utiliza como parte de un proceso, especialmente de uno mediado por la acción humana, para tomar una decisión.

UNESCO: Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco, por sus siglas en inglés)

Módulo 4: ¿Y ahora qué sigue?

Algoritmo: Un algoritmo consiste, básicamente, en un conjunto matemático de operaciones programadas para cumplir un determinado objetivo. Los algoritmos, en tanto que procedimientos computacionales, son instrumentos que no intentan establecer un vínculo causal entre una variable específica y su efecto, sino que producen un resultado. A menudo, los algoritmos se implementan en los procesos de toma de decisiones, para la clasificación de ítems, o para la predicción de sucesos. En el presente, la palabra “algoritmo” suele utilizarse en referencia a procesos computacionales automatizados, llamados Algoritmos de Aprendizaje Automático, que son los más implementados durante las dos últimas décadas.

Anonimización: Es anónima aquella “información que no guarda relación con una persona física identificada o identificable”. Por lo tanto, por anonimización se entiende el proceso encaminado a convertir los datos en anónimos, de manera que una persona no sea identificable a través de ellos.

Datos: Representación de información apta para el almacenamiento, comunicación, interpretación y procesamiento por seres humanos o por medios automáticos.

Datos personales: Datos personales significa "cualquier información relacionada con una persona física identificada o identificable ("sujeto de datos"); Una persona física identificable es aquella que puede ser identificada, directa o indirectamente, en particular por referencia a un identificador, como un nombre, un número de identificación, datos de ubicación, un identificador en línea o uno o más factores específicos a lo físico, fisiológico, identidad genética, mental, económica, cultural o social de esa persona física".

Explicabilidad: La explicabilidad de un sistema de toma de decisiones o de soporte de decisiones se refiere a la posibilidad de que otras personas lo puedan comprender, a través de la información accesible sobre el mismo, también a que este sea reproducible.

Inteligencia Artificial: Las técnicas de Inteligencia Artificial se basan en el análisis de datos para modelar algún aspecto de la realidad. Comúnmente, los resultados de los modelos de IA se utilizan para predecir y anticipar posibles eventos futuros. Las técnicas de IA incluyen el aprendizaje de máquinas, el aprendizaje profundo de máquinas, entre otros, y se aplica en casos como el de la robótica inteligente, los vehículos autónomos, los agentes virtuales o la visión artificial.

Responsabilidad y Rendición de cuentas: Los sistemas de toma/soporte de decisión, incluidos aquellos que utilizan técnicas algorítmicas y de IA, no son entes autónomos, sino que carecen de intencionalidad y de voluntad, no se les pueden atribuir responsabilidades con respecto a las normas sociales, éticas o jurídicas. La responsabilidad sobre estos mecanismos es, por lo tanto, de aquella/s persona/s o grupos de personas u organizaciones involucradas de forma directa en el diseño, desarrollo e implementación del sistema y el Proyecto que han realizado acciones con unas intenciones concretas y unas consecuencias significativas, especialmente cuando estas consecuencias tienen efectos negativos sobre la vida de otro/s. La responsabilidad algorítmica define la relación entre la parte responsable del sistema y la parte afectada por el mismo. La rendición de cuentas se refiere a la asunción de esta responsabilidad por parte de una persona, grupo u organización. Se refiere a la obligación de reconocer y aceptar las consecuencias del funcionamiento de un sistema, así como de reparar y satisfacer a las personas afectadas por el mismo. También se refiere a la responsabilidad de prevenir y evitar posibles consecuencias indeseables en el futuro.

SaaS: Software como un servicio

Sesgo algorítmico: El sesgo algorítmico se produce en aquellos casos en los que un determinado modelo algorítmico basado en datos produce repetidamente resultados no deseados por las personas que desarrollan, crean y entrenan el sistema. Con frecuencia, pero no siempre, esto se debe a que la recopilación y el uso de datos de entrenamiento están sesgados (sesgo pre-algorítmico). En otras ocasiones, se debe a problemas con la interacción entre un algoritmo y otros procesos, una vez que el algoritmo es aplicado en un contexto concreto (sesgo post-algorítmico). En aquellos casos en los que estos resultados no deseados dan lugar a una forma de discriminación sistemática, que produce resultados desventajosos que involucran a uno o más de los llamados grupos protegidos o vulnerables, se considera que existe un sesgo algorítmico discriminatorio o que se observa discriminación algorítmica.

Software: Corresponde al equipamiento lógico de un sistema informático, que comprende el conjunto de los componentes que hacen posible la realización de tareas específicas. Ejemplos: Inteligencia Artificial; Algoritmos; programas de computadora, incluidos herramientas de edición texto, audio, video y fotos, visualizaciones.

Glosario MOOC

Palabras

Definición

Fuente

Sobreajuste

Cuando se sobreajusta un algoritmo, este puede llegar a aprender perfectamente los datos de entrenamiento al nivel que impacta negativamente el rendimiento del modelo en información por fuera de ese subconjunto de aprendizaje. 

fAIr LAC: Adopción ética y responsable de la inteligencia artificial en América Latina y el Caribe 

Interoperabilidad

En su sentido principal, por interoperabilidad se entiende la capacidad de los sistemas de tecnología, información y comunicación (TIC), y de los procesos que estas soportan, de intercambiar datos y compartir información y conocimiento. 

El ABC de la interoperabilidad de los servicios sociales: Marco conceptual y metodológico 

Granularidad

Se refiere al nivel de detalle que tienen los datos. Se pueden tener observaciones a nivel país, regional, por barrios, personales o a nivel de evento (cada vez que ocurre). Una base más madura tendrá un nivel de granularidad mayor, es decir, cada vez más específica en las observaciones. 

Manual de formulación y ejecución de proyectos de inteligencia artificial responsable para tomadores de decisiones de política pública