La inteligencia artificial (IA) se manifiesta en algoritmos cuyo
desempeño es difícil de predecir o explicar. Estos algoritmos se
aplican a cuestiones de la vida cotidiana de los ciudadanos, como por
ejemplo el otorgamiento de un préstamo bancario, y han empezado a
utilizarse por parte del gobierno electrónico. Actualmente se
investiga la aplicación de IA a todos los campos del conocimiento.
En este trabajo se refieren brevemente algunos desarrollos en las
ciencias de la información y se presentan algunos de los desafíos
que plantea la aplicación de IA, como el sesgo y la opacidad. Frente
a estos desafíos hay opiniones de la ética de la información, el
movimiento de software libre e investigaciones académicas para
mejorar la explicabilidad de IA (XAI). Por último, se detalla
sucintamente la estrategia de gobierno electrónico en Uruguay. Queda
abierta la reflexión y, en particular, se recomienda la inclusión
en la formación académica de estos temas en las carreras de
bibliotecología.
1. Introducción
La inteligencia artificial (IA) es un área de la
ciencia de computación que se relaciona con la matemática, la
filosofía, la biología y la lingüística, entre otras, y que
abarca distintos tipos de algoritmos para la resolución de
problemas. Los algoritmos con los que lidiamos al realizar tareas
cotidianas, como retirar dinero de un cajero, consisten en un
procedimiento paso a paso de una secuencia de ejecución
preestablecida. Sin embargo, los algoritmos de IA utilizan otros
mecanismos y no se sabe a priori cómo será su ejecución ya que sus
métodos son probabilísticos o económicos, lo cual les permite
lidiar con información incompleta o incierta. Otra estrategia de IA
para resolver problemas es la de representar el mundo de acuerdo a
modelos, como las ontologías, que incorporan conceptos, propiedades
y relaciones, y utilizan la lógica descriptiva para establecer
axiomas que permiten razonar sobre el modelo.
Los agentes o sistemas de hardware . software,
tienen propiedades de autonomía, habilidad social, reactividad y
proactividad. La autonomía es un factor importante ya que estos
agentes pueden actuar en forma flexible sin la intervención de otros
sistemas o personas para cumplir un objetivo. La habilidad social de
los agentes refiere a la capacidad de interacción con otras personas
con mecanismos de negociación, cooperación o competencia. Los
sistemas multiagentes son utilizados en IA con “algoritmos
evolutivos” basados en la evolución de las generaciones en
biología, o con “inteligencia de enjambre” que se inspira en las
situaciones de la naturaleza donde los individuos –en este caso
agentes- interactúan entre ellos y con el entorno de manera análoga
a las abejas.
Los algoritmos
de procesamiento de lenguaje natural utilizados para el análisis
del lenguaje utilizan modelos basados en gramáticas formales y han
ido mejorando su desempeño, como se puede apreciar en su
utilización en la traducción automática y en el análisis de la
polaridad de las frases para determinar su carga emocional.
Los algoritmos de aprendizaje automático son
aquellos que ingestan datos –de entrenamiento- y con ellos
construyen un modelo. Luego, utilizan este modelo para tomar
decisiones o realizar predicciones, pero sin una programación
explícita. Estos algoritmos presentan posibles problemas si la
cantidad de datos de entrenamiento es pequeña o tienen algún tipo
de sesgo, ya que en ese caso el modelo no representará la realidad
adecuadamente.
La característica de los algoritmos de IA es la
autonomía y la opacidad, o lo que se conoce como el problema de la
“caja negra”. Las personas en el pasado estudiaban el
comportamiento de los objetos mirando su interior y descifrando su
comportamiento mecánico. En el caso de los algoritmos de IA, ese
interior de la “caja” es negro u opaco, ya que no es sencillo
entender cómo opera. Los desarrolladores tienen una influencia
limitada en la forma en que se resuelven los asuntos de que trata el
algoritmo. Pueden decidir los principios de la arquitectura básica,
si es una red neuronal profunda, una máquina de vectores de
soporte, un árbol de decisión, u otro sistema, y elegir un
conjunto particular de parámetros de aprendizaje. Eligen un
algoritmo de aprendizaje e identifican un ambiente apropiado en el
cual los parámetros obtienen valores con los cuales resolver el
problema en cuestión. Sin embargo, los desarrolladores no deciden
los valores particulares de esos parámetros (los pesos de las
conexiones en la red) y tampoco la forma en que los problemas serán
resueltos. Además, esos parámetros pueden interactuar en modos no
lineales o recurrentes, lo cual hace casi imposible de comprender o
predecir la forma en que una entrada se transforma para generar una
salida en particular.
Esta relativa falta de influencia en la operativa
es justamente una gran ventaja, ya que los métodos de aprendizaje
automático son a menudo capaces de identificar soluciones no
intuitivas o sutiles, que probablemente no serían encontradas por
los métodos tradicionales. La desventaja es que los sistemas
programados son opacos, v.g. no puede comprenderse fácilmente su
operativa y la forma de extraer conclusiones.
El área de humanidades digitales (HD) –que
puede entenderse como la imbricación de la tecnología en las
humanidades- abarca a casi todas las áreas de estudio de las
ciencias de información (CI), con una faceta específica que se
relaciona con la tecnología y con una mirada crítica y conceptual.
Las HD constituyen una nueva perspectiva para el análisis y la
interpretación de las CI. La IA es dentro de esta área una parte
de desarrollo creciente que va permeando en todos los asuntos de
manera directa o indirecta.
Como un caso de esta señalada permeabilidad de
IA en todos las áreas puede mencionarse dentro de los metadatos de
recursos educativos el estándar OBAA (Agents-based learning
objects) que incluye conceptos como agentes y ontologías (Behr
et al., 2021).
Pero la IA no solo se incorpora a las humanidades
digitales o a las ciencias de la información en general, sino a
todos los ámbitos de conocimiento y prácticas. Esta diseminación
general de IA pone en foco las preocupaciones sobre los trabajos del
futuro, porque se percibe que afectará la manera como se
desarrollarán los procesos, y se prevé que muchos empleos ya no
requerirán intervención humana. Por tanto, la interrogante es
determinar cuáles serán los trabajos futuros y cómo formarse para
esa eventualidad.
Existe la creencia de que las TIC eliminan
puestos de trabajo, aunque esto no es necesariamente así, ya que en
muchos procesos de automatización también hay creación de nuevos
empleos que constituyen una fuente de oportunidad laboral de mayor
especialización. Según Halal,
Kolber, Davies & Global (2016), en el caso de IA hay
escenarios en que se eliminarán más trabajos de los que se
crearán. Por un lado, por sustitución de mano de obra, ya sea que
los algoritmos realicen las tareas mejor, más rápidamente o en
forma más barata, y, por el otro, debido a la presunción de que
habrá escasas necesidades de nuevas actividades a desarrollar por
trabajadores humanos. La cuestión es que la IA tiene mecanismos
para absorber trabajos que tienen relación con la inteligencia o el
conocimiento sin necesidad de arbitraje humano. La brecha
socioeconómica y educativa se acentuará frente a estos desafíos,
favoreciendo a los sectores poderosos frente a los vulnerables. Es
por esta razón que es necesario establecer políticas públicas que
operen sobre esta situación.
2. Inteligencia artificial y las ciencias de la
información
Nuestra área profesional también será
impactada por la IA y corresponde realizar un análisis detallado de
los distintos desarrollos actuales y cómo impactarán en los
servicios de las bibliotecas. En un trabajo anterior (Temesio
Vizoso, 2021), se hace una revisión general de los usos de IA
en el área de las ciencias de la información. Una de las áreas de
gran interés y desarrollo que se perfilan con una perspectiva
interdisciplinaria es el área de organización del conocimiento.
La organización del conocimiento refleja cómo
este se organiza socialmente y cómo los sistemas de organización
del conocimiento, tales como esquemas de clasificación o tesauros
–y más recientemente ontologías-, representan la realidad. Tanto
los profesionales de la información como los algoritmos buscan
representar el contenido de los documentos a través de un conjunto
de términos. Dentro de esta área, la representación de conceptos
en un tesauro con las relaciones de herencia en subclases (término
específico) y las relaciones asociativas entre clases (término
relacionado), constituyen una formalización de una gran
expresividad en un nivel inmediatamente anterior a las ontologías.
Una ontología, además de la jerarquía de conceptos (clases) que
se parangonan con las entradas de un tesauro, establece un conjunto
de axiomas y afirmaciones que permiten razonamientos e inferencias a
través de la lógica descriptiva.
SKOS (Simple Knowledge Organization System) es
una iniciativa del W3C1
que modela, a través de datos semánticos (RDF), una forma de
representar los esquemas conceptuales, como listas encabezamientos
de materia, taxonomías, esquemas de clasificación, tesauros y
cualquier tipo de vocabulario controlado. En el vocabulario SKOS,2
por ejemplo, el término skos:broader corresponde a la relación de
subclase de una ontología que vemos en un tesauro como término
genérico y que puede expresarse como dato semántico. Existe, por
lo tanto, una convergencia entre la representación del conocimiento
en las comunidades de organización del conocimiento y las
comunidades de IA. Las comunidades de las ciencias de la información
han empezado a usar ontologías y datos semánticos enlazados para
representar sus colecciones en sus sitios web, aunque ello no ha
estado exento de problemas. Como señalan Martínez
Méndez, Pastor-Sánchez & López Carreño (2019), los
conjuntos de datos abiertos enlazados en entornos bibliotecarios
deben estar sujetos a la aplicación de las buenas prácticas de
publicación de datos en la web, y la calidad de los metadatos en
este contexto debe armonizarse siguiendo las recomendaciones de la
W3C.
3. Desafíos éticos de la inteligencia
artificial
Una reflexión sobre IA involucra necesariamente
a la ética y, específicamente, a la ética de la información. Tal
como señala Capurro
(2005), la información en la era digital tiene aspectos que
cuestionan desde aspectos que no son tecnológicos o científicos,
sino filosóficos, y que atañen directamente al campo de las
ciencias de la información. En línea con este autor, el concepto
de ética de la información abarca todas las preguntas éticas
relacionadas con la digitalización, el intercambio, la combinación
y el uso de información digital, incluyendo la comunicación a
través del medio digital. Asimismo, señala que la digitalización
produce una necesidad de reorganizar la manera de relacionarnos con
el conocimiento, de concebir una sociedad sostenible que pueda
disponer el mismo a las generaciones futuras, y eso necesariamente
implica el acceso abierto.
En el mismo sentido se expresa Rodríguez
Ortega (2018), quien afirma que los retos en el futuro inmediato
son la creación de interfaces de comprensión que medien entre los
resultados algorítmicos y nuestras posibilidades de intelección; y
la reconciliación entre la lógica computacional y la cognición
humana. Esta reconciliación, señala, debe plantearse con un
sentido crítico, considerando que la tecnología no es neutral y
visibilizando las concepciones culturales e ideológicas embebidas,
y además buscando imbricar la producción tradicional con procesos
de IA.
Uno de los problemas de IA es la introducción de
sesgos en los conjuntos de datos con que se alimentan los
algoritmos, ya sea en forma voluntaria o inadvertida, lo cual
conlleva a resultados inaceptables. Estas tendencias contribuyen a
la continuidad de una exclusión de sectores desfavorecidos o
minorías, y alientan visiones prejuiciosas que están incorporadas
a nuestra cultura.
Un uso confiable de IA pasa por abogar que la
misma sea inclusiva, responsable y explicable (XAI)3
buscando transparentar los modelos y lograr que los resultados sean
entendibles incluso para interesados no tecnológicos. En este
sentido, las recomendaciones de AI4IA
(2020) son:
Los aspectos de ética de la IA tienen que
ser accesibles, además de considerar el rol de las comunidades y
la diversidad cultural en el diseño, desarrollo y entrenamiento.
La ética de la información ya figura en
los programas de estudio, pero se recomienda incluir también
aspectos de codificación de algoritmos, y a su vez los autores de
los algoritmos deben recibir formación en ética de la
información.
La ética, la transparencia, la dignidad
humana y los derechos de los niños deben ser promovidos e
implementados desde el inicio del desarrollo de un sistema de IA.
La necesidad de disminuir la brecha digital
a todos los niveles se torna indispensable.
El concepto de FAIR aplicado a la IA,4
o lo que se podría denominar una IA inclusiva, consiste en no
discriminar por características sensibles como el género, la
etnia, la religión, la discapacidad o la orientación sexual. Como
los modelos de IA se diseñan en una cultura que reproduce sesgos,
es necesario testearlos para no excluir y violar los derechos
humanos.
El movimiento del software libre promueve un
software que respeta la libertad de los usuarios y la comunidad. A
grandes rasgos, significa que los usuarios tienen la libertad de
ejecutar, copiar, distribuir, estudiar, modificar y mejorar el
software.5
Este movimiento fue inspirador de otros de apertura del conocimiento
como el acceso abierto.
Para que se pueda ejercer la libertad de
modificar una aplicación de IA de forma autónoma se requiere
adherir a licencias de software libre,6
no solo el algoritmo, sino los datos de entrenamiento que se
utilizan para generar los modelos. La IA demanda grandes conjuntos
de datos para identificar patrones y correlaciones y si la cantidad
no es suficiente el modelo del mundo no será correcto. Esto demanda
no solo recursos tecnológicos y humanos, sino también un tiempo
que permita realizar el entrenamiento. Estas necesidades conspiran
contra la posibilidad concreta de utilizar la IA aún con el
software y los datos libres, por lo que se aconseja poner en
disponibilidad sin restricciones también los modelos entrenados de
IA para mejorar la reutilización e inspección.
La transparencia de IA está diferenciada en
apertura e interpretabilidad. Respecto a la apertura, corresponde al
mismo concepto que se aplica a cualquier tipo de software. Sin
embargo, la interpretabilidad es un elemento nuevo que significa la
comprensión de cómo los datos que ingresan son procesados, de modo
de identificar los factores que se toman en cuenta para realizar los
resultados o las predicciones y su importancia relativa.7
Otro aspecto que señalan como buena práctica
otros adherentes del software libre con respecto a la IA, es la
utilización de listas de testeo –como las usadas en aeronáutica-
que incluyan puntos acerca de cómo se construyó el conjunto de
entrenamiento y como se pre procesó, la especificación del modelo
y la arquitectura, la evaluación de la eficiencia, exactitud e
inclusión, así como los riesgos conocidos y limitaciones.8
Respecto a los conjuntos de datos hay una
propuesta (Gebru
et al., 2021) que plantea estandarizar la documentación de los
mismos de modo que cada conjunto sea acompañado por un formulario
que exponga su motivación, composición, proceso de recolección y
usos recomendados, entre otros elementos. De esta forma se facilita
la comunicación entre los creadores del conjunto y los
consumidores, fomentando además la transparencia y la
responsabilidad en la comunidad de IA.
La transparencia y, su contrapartida, la
opacidad, así como la explicabilidad son motivos de estudio. La
opacidad, según Humphreys
(2009), es relativa a un agente cognitivo en un determinado
momento respecto a los elementos epistémicamente relevantes
(Epistemically relevant elements, ERE). Este análisis pone en
evidencia la propiedad epistémica de la opacidad con lo cual las
necesidades de explicación corresponden al conocimiento – o su
carencia- de los agentes cognitivos y en cada caso los elementos a
explicar serán diferentes.
Tomsett,
Braines, Harborne, Preece & Chakraborty (2018) exploran el
ecosistema de los agentes que interactúan con el aprendizaje
automático y los detallan:
Creadores o agentes que elaboran el sistema
de aprendizaje automático (arquitectura, diseño, implementación,
adiestramiento, documentación, implementación y mantenimiento).
Dueños u organizaciones.
Implementadores.
Operadores: proporcionan entradas y reciben
las salidas del sistema.
Ejecutores: agentes que toman decisiones,
reciben información de los operadores.
Sujetos de decisión: agentes que son
afectados por decisiones tomadas por el ejecutor.
Sujetos de datos: agentes cuya información
personal ha sido usada para entrenar el sistema.
Examinadores: agentes que auditan o
investigan el sistema.
Establecida esta taxonomía, resulta claro que
los EREs, para los distintos actores, son diferentes, y por tanto
deben considerarse diversos tipos de explicaciones para
transparentar los sistemas. Así, el problema de la “caja negra”
se convierte en el problema de las “cajas negras”.
Zednik
(2021) propone un marco de referencia normativo a partir del
cual evaluar las explicaciones y las técnicas analíticas asociadas
para la explicabilidad en IA. Existen, claro, limitaciones en estas
técnicas, pero como en todo campo de investigación se avanza en su
mejoramiento.
De acuerdo a las leyes de protección de datos
personales existe un derecho de los sujetos de datos por lo cual
debe garantizarse la explicación sobre el uso de sus datos de
acuerdo a sus necesidades epistémicas. Este imperativo legal puede
ser difuso desde el punto de vista normativo, pero desde la
perspectiva ética y desde las razones filosóficas fundantes de
estas leyes de gobierno electrónico, son incuestionables.
La ciencia puede resultar muchas veces compleja
para la comprensión de agentes que no tienen formación de base
científica y que confían en expertos que sí la tienen. En el caso
de IA no se analizan cuestiones de ciencia teórica, son aspectos
que tienen que ver con la vida de las personas. Las personas tienen
derecho a entender por qué se rechaza, por ejemplo, una solicitud
de préstamo. Si la explicabilidad de IA es muy compleja para que lo
puedan comprender, habrá que fortalecer el rol de los examinadores,
y no solo en los aspectos técnicos, sino en los éticos, para que
se pueda confiar a través de ellos.
4. La inteligencia artificial en el gobierno
Capurro (2019,
p. 33) sostiene que:
La sociedad, entendida como interacción entre
ciudadanos libres y entre estos y el gobierno, tiene actualmente la
tarea de fomentar la participación de todos en la creación de
posibles futuros digitales sobre la base de reglas de juego limpias
así como de promover la ilustración digital tanto en el sentido de
educar en el manejo de las tecnologías digitales como de la
reflexión crítica sobre ellas con relación a formas de vida
sustentables.
La utilización de IA por parte del gobierno
electrónico en ámbitos públicos que atañen a la vida de los
ciudadanos, implica una responsabilidad a nivel gubernamental y la
necesaria implicación de los ciudadanos en la aplicación de
iniciativas que regirán sobre sus vidas.
En Uruguay, en marzo de 2019, la Agencia para la
Sociedad de la Información y el Conocimiento conformó un grupo
interdisciplinario de trabajo para desarrollar los principios
generales y la estrategia a seguir en la aplicación de la
Inteligencia artificial en el Estado uruguayo, y luego recibir los
aportes de la ciudadanía.9
La estrategia estableció que el uso responsable
de IA involucraba cuatro dimensiones: ética, normativa, técnica y
social. Estos aspectos deberían estar presentes desde el diseño
hasta la implementación de aplicaciones. El objetivo general de la
estrategia es promover y fortalecer el uso responsable de IA en la
administración pública. En ese marco, se identificaron cuatro
pilares:
Gobernanza de IA en la administración
pública.
Desarrollo de capacidades para la IA.
Uso y aplicación de la IA.
Ciudadanía Digital e IA.
En el área de desarrollo de capacidades,
específicamente, se plantea priorizar la capacitación en contextos
multidisciplinarios, generando habilidades que permitan comprender
todas las dificultades, desafíos e impactos que se presentan al
momento de utilizar IA en los servicios y procesos de la
administración pública. Adicionalmente, a los perfiles técnicos y
de negocio que se vinculan con las TIC en el ámbito público, surge
la necesidad de incorporar nuevos perfiles, como por ejemplo,
aquellos relacionados con formación humanística, cuyos aportes son
fundamentales para mejorar la interacción entre los sistemas de IA
y sus usuarios. Los principios generales de la estrategia son:
Finalidad: potenciar y complementar
capacidad para mejorar la vida de las personas.
Interés general: garantizar la inclusión y
la equidad. Reducir sesgos en datos y modelos que favorezcan
prácticas discriminatorias.
Respeto de los derechos humanos: las
libertades individuales y la diversidad.
Transparencia: poner a disposición los
algoritmos y datos utilizados para el entrenamiento de la solución
y su puesta en práctica, así como las pruebas y validaciones
realizadas. Exponer explícitamente los procesos que utilicen IA.
Responsabilidad: contar con un responsable
claramente identificable y que responda por las consecuencias
derivadas del accionar de la solución.
Ética: cuando la aplicación y/o el
desarrollo de soluciones basadas en IA presenten dilemas éticos,
estos deben ser abordados y resueltos por seres humanos.
Valor agregado: se utilizará IA solamente
cuando se agregue valor a un proceso.
Privacidad por diseño: desde el diseño se
considerará la privacidad de las personas.
Seguridad: cumplir desde el diseño con los
principios básicos de la seguridad de la información.
La Alianza para el Gobierno Abierto (AGA)10
plantea que cada país realice un plan de gobierno abierto (GA) con
un conjunto de iniciativas que aporten al logro de los pilares de GA
como la transparencia, la rendición de cuentas y la participación.
Estas iniciativas se denominan compromisos de GA.
En el 5to. Plan de Acción Nacional de Gobierno
Abierto 2021-2024, donde se exponen en su compromiso 1.6, se propone
un observatorio de uso de inteligencia artificial en el estado que
irá desde el 1/5/2022 hasta el 1/6/2024, que plantea promover y
fortalecer el uso ético, responsable, seguro y confiable de IA.11
La estrategia mencionada recoge recomendaciones
de Guías del Grupo de alto nivel de IA de la comisión europea (AI
HLEG, 2019). Este grupo también trabajó en recomendaciones de
políticas e inversiones destacando la educación en IA, desde el
nivel escolar a la universidad, y la adopción de un marco
regulatorio y una gobernanza adecuada.
Reflexiones finales
Es necesario profundizar en las carreras de
bibliotecología y archivología la educación en tecnología, pero
no solo en los aspectos instrumentales, sino también en los marcos
de pensamiento que la sustentan y su análisis crítico. Será
necesario insistir en la educación en el pensamiento computacional,
el pensamiento lógico matemático, los modelos conceptuales y todo
tipo de herramientas metodológicas de representación del mundo,
que son incorporadas a los modelos algorítmicos.
La epistemología incorporada a este tipo de
percepción constituye un conocimiento del que no hay que privarse
si se va a interpretar nuestro presente, y futuro, y se van a
constituir actores que percibirán la urdimbre de la realidad
digital. Es importante saber para poder entender, interpretar y
luego actuar para hacer sostenible un futuro digital. En ese
sentido, fortalecer la educación en el área de las HD en general,
e incorporar específicamente el tema de IA con el enfoque crítico
y no instrumental en los programas de las carreras de ciencias de la
información, es un camino a profundizar. Este trayecto a emprender
es particularmente importante en nuestra región donde la
implicancia política y ética de la inclusión es tangible.
Las bibliotecas llevan un rol de larga data en
equilibrar las colecciones y en la defensa de todas las voces. Los
profesionales de la información tienen un papel ahora en equilibrar
los conjuntos de datos de entrenamiento para IA que aseguren la
diversidad y protejan todas las perspectivas.
La interpretabilidad, la transparencia y la
explicabilidad de los algoritmos puede ser cuantificable, y
constituye un derecho de los ciudadanos solicitar que se cumplan
niveles adecuados de conocimiento sobre los mismos en cuanto ellos
tienen el rol de sujetos de decisión y serán afectados por las
decisiones que son tomadas a través de IA. El marco regulatorio y
la gobernanza en IA que son promovidos por el gobierno electrónico
deben contemplar una perspectiva ética y los ciudadanos tenemos un
papel en la participación para que ello se cumpla.
Referencias
AI HLEG
(2019). High-Level Expert Group on Artificial Intelligence: ethics
guidelines for trustworthy AI. Recuperado de
https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai
AI4IA
(2020). Artificial Intelligence for Information Accessibility final
conference report. Recuperado de
https://www.i-c-i-e.org/post/ai4ia-final-conference-report
Behr, A.
et al. (2021). Enhancing learning object repositories with
ontologies. In World Conference on Information Systems and
Technologies (pp. 463-472). Springer, Cham. Recuperado de
http://repositorioaberto.uab.pt/handle/10400.2/10693?locale=en
Capurro,
R. (2005). Ética de la información. Un intento de ubicación.
Códices, 1(2), 89-97. Recuperado de
https://ciencia.lasalle.edu.co/cgi/viewcontent.cgi?article=1016&context=co
Capurro,
R. (2019). Futuros digitales: breve ensayo sobre la vida sostenible
en la era digital. Mètode: revista de difusión de la
investigación, 3(102), 32-37. Recuperado de
https://metode.es/wp-content/uploads/2019/09/102ES-DOC-capurro-futuros-digitales.pdf
Gebru, T.
et al. (2021). Datasheets for datasets. Recuperado de
https://arxiv.org/pdf/1803.09010.pdf
Halal,
W., Kolber, J., Davies, O. & Global, T. (2016). Forecasts of AI
and future jobs in 2030: muddling through likely, with two
alternative scenarios. Journal of futures studies, 21(2), 83-96.
Humphreys,
P. (2009). The philosophical novelty of computer simulation methods.
Synthese, 169(3), 615–626.
Martínez
Méndez, F. J., Pastor-Sánchez, J-A. & López Carreño, R.
(2019). Linked open data en bibliotecas: estado del arte.
Information research, 25(2). Recuperado de
http://InformationR.net/ir/25-2/paper862.html
Rodríguez-Ortega,
N. (2018). Cinco ejes para pensar las humanidades digitales como
proyecto de un nuevo humanismo digital. Humanidades digitales:
sociedades, políticas, saberes Artnodes (22), 1-6.
http://dx.doi.org/10.7238/a.v0i22.3263
Temesio
Vizoso, S. G. (2021). Inteligencia artificial en GLAM: políticas de
información. En VI Jornadas de Intercambio y Reflexión acerca de
la Investigación en Bibliotecología, La Plata, Argentina.
Recuperado de
https://www.memoria.fahce.unlp.edu.ar/library?a=d&c=eventos&d=Jev14285
Tomsett,
R., Braines, D., Harborne, D., Preece, A. & Chakraborty, S.
(2018). Interpretable to whom? A role-based model for analyzing
interpretable machine learning systems. Recuperado de
https://arxiv.org/ftp/arxiv/papers/1806/1806.07552.pdf
Wooldridge,
M. & Jennings, N. R. (1995). Intelligent agents: theory and
practice. The knowledge engineering review, 10(2), 115-152.
Zednik,
C. (2021). Solving the black box problem: a normative framework for
explainable artificial intelligence. Philosophy & technology,
34(2), 265-288.
Notas
3 eXplainable Artificial
Intelligence.
4 FAIR tiene el
significado de justo, equitativo, sin sesgos. En IA, FAIR tiene el
sentido de prevenir sesgos hacia determinados subgrupos y mitigar
su discriminación.
HTML generado por Redalyc a partir de XML-JATS4R.
Proyecto académico sin fines de lucro, desarrollado bajo la
iniciativa de acceso abierto.