Un vídeo con Inteligencia Artificial
La inteligencia artificial (IA) se manifiesta en algoritmos cuyo desempeño es difícil de predecir o explicar. Estos algoritmos se aplican a cuestiones de la vida cotidiana de los ciudadanos, como por ejemplo el otorgamiento de un préstamo bancario, y han empezado a utilizarse por parte del gobierno electrónico. Actualmente se investiga la aplicación de IA a todos los campos del conocimiento. En este trabajo se refieren brevemente algunos desarrollos en las ciencias de la información y se presentan algunos de los desafíos que plantea la aplicación de IA, como el sesgo y la opacidad. Frente a estos desafíos hay opiniones de la ética de la información, el movimiento de software libre e investigaciones académicas para mejorar la explicabilidad de IA (XAI). Por último, se detalla sucintamente la estrategia de gobierno electrónico en Uruguay. Queda abierta la reflexión y, en particular, se recomienda la inclusión en la formación académica de estos temas en las carreras de bibliotecología.
1. Introducción
La inteligencia artificial (IA) es un área de la ciencia de computación que se relaciona con la matemática, la filosofía, la biología y la lingüística, entre otras, y que abarca distintos tipos de algoritmos para la resolución de problemas. Los algoritmos con los que lidiamos al realizar tareas cotidianas, como retirar dinero de un cajero, consisten en un procedimiento paso a paso de una secuencia de ejecución preestablecida. Sin embargo, los algoritmos de IA utilizan otros mecanismos y no se sabe a priori cómo será su ejecución ya que sus métodos son probabilísticos o económicos, lo cual les permite lidiar con información incompleta o incierta. Otra estrategia de IA para resolver problemas es la de representar el mundo de acuerdo a modelos, como las ontologías, que incorporan conceptos, propiedades y relaciones, y utilizan la lógica descriptiva para establecer axiomas que permiten razonar sobre el modelo.
Los agentes o sistemas de hardware . software, tienen propiedades de autonomía, habilidad social, reactividad y proactividad. La autonomía es un factor importante ya que estos agentes pueden actuar en forma flexible sin la intervención de otros sistemas o personas para cumplir un objetivo. La habilidad social de los agentes refiere a la capacidad de interacción con otras personas con mecanismos de negociación, cooperación o competencia. Los sistemas multiagentes son utilizados en IA con “algoritmos evolutivos” basados en la evolución de las generaciones en biología, o con “inteligencia de enjambre” que se inspira en las situaciones de la naturaleza donde los individuos –en este caso agentes- interactúan entre ellos y con el entorno de manera análoga a las abejas.
Los algoritmos de procesamiento de lenguaje natural utilizados para el análisis del lenguaje utilizan modelos basados en gramáticas formales y han ido mejorando su desempeño, como se puede apreciar en su utilización en la traducción automática y en el análisis de la polaridad de las frases para determinar su carga emocional.
Los algoritmos de aprendizaje automático son aquellos que ingestan datos –de entrenamiento- y con ellos construyen un modelo. Luego, utilizan este modelo para tomar decisiones o realizar predicciones, pero sin una programación explícita. Estos algoritmos presentan posibles problemas si la cantidad de datos de entrenamiento es pequeña o tienen algún tipo de sesgo, ya que en ese caso el modelo no representará la realidad adecuadamente.
La característica de los algoritmos de IA es la autonomía y la opacidad, o lo que se conoce como el problema de la “caja negra”. Las personas en el pasado estudiaban el comportamiento de los objetos mirando su interior y descifrando su comportamiento mecánico. En el caso de los algoritmos de IA, ese interior de la “caja” es negro u opaco, ya que no es sencillo entender cómo opera. Los desarrolladores tienen una influencia limitada en la forma en que se resuelven los asuntos de que trata el algoritmo. Pueden decidir los principios de la arquitectura básica, si es una red neuronal profunda, una máquina de vectores de soporte, un árbol de decisión, u otro sistema, y elegir un conjunto particular de parámetros de aprendizaje. Eligen un algoritmo de aprendizaje e identifican un ambiente apropiado en el cual los parámetros obtienen valores con los cuales resolver el problema en cuestión. Sin embargo, los desarrolladores no deciden los valores particulares de esos parámetros (los pesos de las conexiones en la red) y tampoco la forma en que los problemas serán resueltos. Además, esos parámetros pueden interactuar en modos no lineales o recurrentes, lo cual hace casi imposible de comprender o predecir la forma en que una entrada se transforma para generar una salida en particular.
Esta relativa falta de influencia en la operativa es justamente una gran ventaja, ya que los métodos de aprendizaje automático son a menudo capaces de identificar soluciones no intuitivas o sutiles, que probablemente no serían encontradas por los métodos tradicionales. La desventaja es que los sistemas programados son opacos, v.g. no puede comprenderse fácilmente su operativa y la forma de extraer conclusiones.
El área de humanidades digitales (HD) –que puede entenderse como la imbricación de la tecnología en las humanidades- abarca a casi todas las áreas de estudio de las ciencias de información (CI), con una faceta específica que se relaciona con la tecnología y con una mirada crítica y conceptual. Las HD constituyen una nueva perspectiva para el análisis y la interpretación de las CI. La IA es dentro de esta área una parte de desarrollo creciente que va permeando en todos los asuntos de manera directa o indirecta.
Como un caso de esta señalada permeabilidad de IA en todos las áreas puede mencionarse dentro de los metadatos de recursos educativos el estándar OBAA (Agents-based learning objects) que incluye conceptos como agentes y ontologías (Behr et al., 2021).
Pero la IA no solo se incorpora a las humanidades digitales o a las ciencias de la información en general, sino a todos los ámbitos de conocimiento y prácticas. Esta diseminación general de IA pone en foco las preocupaciones sobre los trabajos del futuro, porque se percibe que afectará la manera como se desarrollarán los procesos, y se prevé que muchos empleos ya no requerirán intervención humana. Por tanto, la interrogante es determinar cuáles serán los trabajos futuros y cómo formarse para esa eventualidad.
Existe la creencia de que las TIC eliminan puestos de trabajo, aunque esto no es necesariamente así, ya que en muchos procesos de automatización también hay creación de nuevos empleos que constituyen una fuente de oportunidad laboral de mayor especialización. Según Halal, Kolber, Davies & Global (2016), en el caso de IA hay escenarios en que se eliminarán más trabajos de los que se crearán. Por un lado, por sustitución de mano de obra, ya sea que los algoritmos realicen las tareas mejor, más rápidamente o en forma más barata, y, por el otro, debido a la presunción de que habrá escasas necesidades de nuevas actividades a desarrollar por trabajadores humanos. La cuestión es que la IA tiene mecanismos para absorber trabajos que tienen relación con la inteligencia o el conocimiento sin necesidad de arbitraje humano. La brecha socioeconómica y educativa se acentuará frente a estos desafíos, favoreciendo a los sectores poderosos frente a los vulnerables. Es por esta razón que es necesario establecer políticas públicas que operen sobre esta situación.
2. Inteligencia artificial y las ciencias de la información
Nuestra área profesional también será impactada por la IA y corresponde realizar un análisis detallado de los distintos desarrollos actuales y cómo impactarán en los servicios de las bibliotecas. En un trabajo anterior (Temesio Vizoso, 2021), se hace una revisión general de los usos de IA en el área de las ciencias de la información. Una de las áreas de gran interés y desarrollo que se perfilan con una perspectiva interdisciplinaria es el área de organización del conocimiento.
La organización del conocimiento refleja cómo este se organiza socialmente y cómo los sistemas de organización del conocimiento, tales como esquemas de clasificación o tesauros –y más recientemente ontologías-, representan la realidad. Tanto los profesionales de la información como los algoritmos buscan representar el contenido de los documentos a través de un conjunto de términos. Dentro de esta área, la representación de conceptos en un tesauro con las relaciones de herencia en subclases (término específico) y las relaciones asociativas entre clases (término relacionado), constituyen una formalización de una gran expresividad en un nivel inmediatamente anterior a las ontologías. Una ontología, además de la jerarquía de conceptos (clases) que se parangonan con las entradas de un tesauro, establece un conjunto de axiomas y afirmaciones que permiten razonamientos e inferencias a través de la lógica descriptiva.
SKOS (Simple Knowledge Organization System) es una iniciativa del W3C1 que modela, a través de datos semánticos (RDF), una forma de representar los esquemas conceptuales, como listas encabezamientos de materia, taxonomías, esquemas de clasificación, tesauros y cualquier tipo de vocabulario controlado. En el vocabulario SKOS,2 por ejemplo, el término skos:broader corresponde a la relación de subclase de una ontología que vemos en un tesauro como término genérico y que puede expresarse como dato semántico. Existe, por lo tanto, una convergencia entre la representación del conocimiento en las comunidades de organización del conocimiento y las comunidades de IA. Las comunidades de las ciencias de la información han empezado a usar ontologías y datos semánticos enlazados para representar sus colecciones en sus sitios web, aunque ello no ha estado exento de problemas. Como señalan Martínez Méndez, Pastor-Sánchez & López Carreño (2019), los conjuntos de datos abiertos enlazados en entornos bibliotecarios deben estar sujetos a la aplicación de las buenas prácticas de publicación de datos en la web, y la calidad de los metadatos en este contexto debe armonizarse siguiendo las recomendaciones de la W3C.
3. Desafíos éticos de la inteligencia artificial
Una reflexión sobre IA involucra necesariamente a la ética y, específicamente, a la ética de la información. Tal como señala Capurro (2005), la información en la era digital tiene aspectos que cuestionan desde aspectos que no son tecnológicos o científicos, sino filosóficos, y que atañen directamente al campo de las ciencias de la información. En línea con este autor, el concepto de ética de la información abarca todas las preguntas éticas relacionadas con la digitalización, el intercambio, la combinación y el uso de información digital, incluyendo la comunicación a través del medio digital. Asimismo, señala que la digitalización produce una necesidad de reorganizar la manera de relacionarnos con el conocimiento, de concebir una sociedad sostenible que pueda disponer el mismo a las generaciones futuras, y eso necesariamente implica el acceso abierto.
En el mismo sentido se expresa Rodríguez Ortega (2018), quien afirma que los retos en el futuro inmediato son la creación de interfaces de comprensión que medien entre los resultados algorítmicos y nuestras posibilidades de intelección; y la reconciliación entre la lógica computacional y la cognición humana. Esta reconciliación, señala, debe plantearse con un sentido crítico, considerando que la tecnología no es neutral y visibilizando las concepciones culturales e ideológicas embebidas, y además buscando imbricar la producción tradicional con procesos de IA.
Uno de los problemas de IA es la introducción de sesgos en los conjuntos de datos con que se alimentan los algoritmos, ya sea en forma voluntaria o inadvertida, lo cual conlleva a resultados inaceptables. Estas tendencias contribuyen a la continuidad de una exclusión de sectores desfavorecidos o minorías, y alientan visiones prejuiciosas que están incorporadas a nuestra cultura.
Un uso confiable de IA pasa por abogar que la misma sea inclusiva, responsable y explicable (XAI)3 buscando transparentar los modelos y lograr que los resultados sean entendibles incluso para interesados no tecnológicos. En este sentido, las recomendaciones de AI4IA (2020) son:
Los aspectos de ética de la IA tienen que ser accesibles, además de considerar el rol de las comunidades y la diversidad cultural en el diseño, desarrollo y entrenamiento.
La ética de la información ya figura en los programas de estudio, pero se recomienda incluir también aspectos de codificación de algoritmos, y a su vez los autores de los algoritmos deben recibir formación en ética de la información.
La ética, la transparencia, la dignidad humana y los derechos de los niños deben ser promovidos e implementados desde el inicio del desarrollo de un sistema de IA.
La necesidad de disminuir la brecha digital a todos los niveles se torna indispensable.
El concepto de FAIR aplicado a la IA,4 o lo que se podría denominar una IA inclusiva, consiste en no discriminar por características sensibles como el género, la etnia, la religión, la discapacidad o la orientación sexual. Como los modelos de IA se diseñan en una cultura que reproduce sesgos, es necesario testearlos para no excluir y violar los derechos humanos.
El movimiento del software libre promueve un software que respeta la libertad de los usuarios y la comunidad. A grandes rasgos, significa que los usuarios tienen la libertad de ejecutar, copiar, distribuir, estudiar, modificar y mejorar el software.5 Este movimiento fue inspirador de otros de apertura del conocimiento como el acceso abierto.
Para que se pueda ejercer la libertad de modificar una aplicación de IA de forma autónoma se requiere adherir a licencias de software libre,6 no solo el algoritmo, sino los datos de entrenamiento que se utilizan para generar los modelos. La IA demanda grandes conjuntos de datos para identificar patrones y correlaciones y si la cantidad no es suficiente el modelo del mundo no será correcto. Esto demanda no solo recursos tecnológicos y humanos, sino también un tiempo que permita realizar el entrenamiento. Estas necesidades conspiran contra la posibilidad concreta de utilizar la IA aún con el software y los datos libres, por lo que se aconseja poner en disponibilidad sin restricciones también los modelos entrenados de IA para mejorar la reutilización e inspección.
La transparencia de IA está diferenciada en apertura e interpretabilidad. Respecto a la apertura, corresponde al mismo concepto que se aplica a cualquier tipo de software. Sin embargo, la interpretabilidad es un elemento nuevo que significa la comprensión de cómo los datos que ingresan son procesados, de modo de identificar los factores que se toman en cuenta para realizar los resultados o las predicciones y su importancia relativa.7
Otro aspecto que señalan como buena práctica otros adherentes del software libre con respecto a la IA, es la utilización de listas de testeo –como las usadas en aeronáutica- que incluyan puntos acerca de cómo se construyó el conjunto de entrenamiento y como se pre procesó, la especificación del modelo y la arquitectura, la evaluación de la eficiencia, exactitud e inclusión, así como los riesgos conocidos y limitaciones.8
Respecto a los conjuntos de datos hay una propuesta (Gebru et al., 2021) que plantea estandarizar la documentación de los mismos de modo que cada conjunto sea acompañado por un formulario que exponga su motivación, composición, proceso de recolección y usos recomendados, entre otros elementos. De esta forma se facilita la comunicación entre los creadores del conjunto y los consumidores, fomentando además la transparencia y la responsabilidad en la comunidad de IA.
La transparencia y, su contrapartida, la opacidad, así como la explicabilidad son motivos de estudio. La opacidad, según Humphreys (2009), es relativa a un agente cognitivo en un determinado momento respecto a los elementos epistémicamente relevantes (Epistemically relevant elements, ERE). Este análisis pone en evidencia la propiedad epistémica de la opacidad con lo cual las necesidades de explicación corresponden al conocimiento – o su carencia- de los agentes cognitivos y en cada caso los elementos a explicar serán diferentes.
Tomsett, Braines, Harborne, Preece & Chakraborty (2018) exploran el ecosistema de los agentes que interactúan con el aprendizaje automático y los detallan:
Creadores o agentes que elaboran el sistema de aprendizaje automático (arquitectura, diseño, implementación, adiestramiento, documentación, implementación y mantenimiento).
Dueños u organizaciones.
Implementadores.
Operadores: proporcionan entradas y reciben las salidas del sistema.
Ejecutores: agentes que toman decisiones, reciben información de los operadores.
Sujetos de decisión: agentes que son afectados por decisiones tomadas por el ejecutor.
Sujetos de datos: agentes cuya información personal ha sido usada para entrenar el sistema.
Examinadores: agentes que auditan o investigan el sistema.
Establecida esta taxonomía, resulta claro que los EREs, para los distintos actores, son diferentes, y por tanto deben considerarse diversos tipos de explicaciones para transparentar los sistemas. Así, el problema de la “caja negra” se convierte en el problema de las “cajas negras”.
Zednik (2021) propone un marco de referencia normativo a partir del cual evaluar las explicaciones y las técnicas analíticas asociadas para la explicabilidad en IA. Existen, claro, limitaciones en estas técnicas, pero como en todo campo de investigación se avanza en su mejoramiento.
De acuerdo a las leyes de protección de datos personales existe un derecho de los sujetos de datos por lo cual debe garantizarse la explicación sobre el uso de sus datos de acuerdo a sus necesidades epistémicas. Este imperativo legal puede ser difuso desde el punto de vista normativo, pero desde la perspectiva ética y desde las razones filosóficas fundantes de estas leyes de gobierno electrónico, son incuestionables.
La ciencia puede resultar muchas veces compleja para la comprensión de agentes que no tienen formación de base científica y que confían en expertos que sí la tienen. En el caso de IA no se analizan cuestiones de ciencia teórica, son aspectos que tienen que ver con la vida de las personas. Las personas tienen derecho a entender por qué se rechaza, por ejemplo, una solicitud de préstamo. Si la explicabilidad de IA es muy compleja para que lo puedan comprender, habrá que fortalecer el rol de los examinadores, y no solo en los aspectos técnicos, sino en los éticos, para que se pueda confiar a través de ellos.
4. La inteligencia artificial en el gobierno
Capurro (2019, p. 33) sostiene que:
La sociedad, entendida como interacción entre ciudadanos libres y entre estos y el gobierno, tiene actualmente la tarea de fomentar la participación de todos en la creación de posibles futuros digitales sobre la base de reglas de juego limpias así como de promover la ilustración digital tanto en el sentido de educar en el manejo de las tecnologías digitales como de la reflexión crítica sobre ellas con relación a formas de vida sustentables.
La utilización de IA por parte del gobierno electrónico en ámbitos públicos que atañen a la vida de los ciudadanos, implica una responsabilidad a nivel gubernamental y la necesaria implicación de los ciudadanos en la aplicación de iniciativas que regirán sobre sus vidas.
En Uruguay, en marzo de 2019, la Agencia para la Sociedad de la Información y el Conocimiento conformó un grupo interdisciplinario de trabajo para desarrollar los principios generales y la estrategia a seguir en la aplicación de la Inteligencia artificial en el Estado uruguayo, y luego recibir los aportes de la ciudadanía.9
La estrategia estableció que el uso responsable de IA involucraba cuatro dimensiones: ética, normativa, técnica y social. Estos aspectos deberían estar presentes desde el diseño hasta la implementación de aplicaciones. El objetivo general de la estrategia es promover y fortalecer el uso responsable de IA en la administración pública. En ese marco, se identificaron cuatro pilares:
Gobernanza de IA en la administración pública.
Desarrollo de capacidades para la IA.
Uso y aplicación de la IA.
Ciudadanía Digital e IA.
En el área de desarrollo de capacidades, específicamente, se plantea priorizar la capacitación en contextos multidisciplinarios, generando habilidades que permitan comprender todas las dificultades, desafíos e impactos que se presentan al momento de utilizar IA en los servicios y procesos de la administración pública. Adicionalmente, a los perfiles técnicos y de negocio que se vinculan con las TIC en el ámbito público, surge la necesidad de incorporar nuevos perfiles, como por ejemplo, aquellos relacionados con formación humanística, cuyos aportes son fundamentales para mejorar la interacción entre los sistemas de IA y sus usuarios. Los principios generales de la estrategia son:
Finalidad: potenciar y complementar capacidad para mejorar la vida de las personas.
Interés general: garantizar la inclusión y la equidad. Reducir sesgos en datos y modelos que favorezcan prácticas discriminatorias.
Respeto de los derechos humanos: las libertades individuales y la diversidad.
Transparencia: poner a disposición los algoritmos y datos utilizados para el entrenamiento de la solución y su puesta en práctica, así como las pruebas y validaciones realizadas. Exponer explícitamente los procesos que utilicen IA.
Responsabilidad: contar con un responsable claramente identificable y que responda por las consecuencias derivadas del accionar de la solución.
Ética: cuando la aplicación y/o el desarrollo de soluciones basadas en IA presenten dilemas éticos, estos deben ser abordados y resueltos por seres humanos.
Valor agregado: se utilizará IA solamente cuando se agregue valor a un proceso.
Privacidad por diseño: desde el diseño se considerará la privacidad de las personas.
Seguridad: cumplir desde el diseño con los principios básicos de la seguridad de la información.
La Alianza para el Gobierno Abierto (AGA)10 plantea que cada país realice un plan de gobierno abierto (GA) con un conjunto de iniciativas que aporten al logro de los pilares de GA como la transparencia, la rendición de cuentas y la participación. Estas iniciativas se denominan compromisos de GA.
En el 5to. Plan de Acción Nacional de Gobierno Abierto 2021-2024, donde se exponen en su compromiso 1.6, se propone un observatorio de uso de inteligencia artificial en el estado que irá desde el 1/5/2022 hasta el 1/6/2024, que plantea promover y fortalecer el uso ético, responsable, seguro y confiable de IA.11
La estrategia mencionada recoge recomendaciones de Guías del Grupo de alto nivel de IA de la comisión europea (AI HLEG, 2019). Este grupo también trabajó en recomendaciones de políticas e inversiones destacando la educación en IA, desde el nivel escolar a la universidad, y la adopción de un marco regulatorio y una gobernanza adecuada.
Reflexiones finales
Es necesario profundizar en las carreras de bibliotecología y archivología la educación en tecnología, pero no solo en los aspectos instrumentales, sino también en los marcos de pensamiento que la sustentan y su análisis crítico. Será necesario insistir en la educación en el pensamiento computacional, el pensamiento lógico matemático, los modelos conceptuales y todo tipo de herramientas metodológicas de representación del mundo, que son incorporadas a los modelos algorítmicos.
La epistemología incorporada a este tipo de percepción constituye un conocimiento del que no hay que privarse si se va a interpretar nuestro presente, y futuro, y se van a constituir actores que percibirán la urdimbre de la realidad digital. Es importante saber para poder entender, interpretar y luego actuar para hacer sostenible un futuro digital. En ese sentido, fortalecer la educación en el área de las HD en general, e incorporar específicamente el tema de IA con el enfoque crítico y no instrumental en los programas de las carreras de ciencias de la información, es un camino a profundizar. Este trayecto a emprender es particularmente importante en nuestra región donde la implicancia política y ética de la inclusión es tangible.
Las bibliotecas llevan un rol de larga data en equilibrar las colecciones y en la defensa de todas las voces. Los profesionales de la información tienen un papel ahora en equilibrar los conjuntos de datos de entrenamiento para IA que aseguren la diversidad y protejan todas las perspectivas.
La interpretabilidad, la transparencia y la explicabilidad de los algoritmos puede ser cuantificable, y constituye un derecho de los ciudadanos solicitar que se cumplan niveles adecuados de conocimiento sobre los mismos en cuanto ellos tienen el rol de sujetos de decisión y serán afectados por las decisiones que son tomadas a través de IA. El marco regulatorio y la gobernanza en IA que son promovidos por el gobierno electrónico deben contemplar una perspectiva ética y los ciudadanos tenemos un papel en la participación para que ello se cumpla.
Referencias
AI HLEG (2019). High-Level Expert Group on Artificial Intelligence: ethics guidelines for trustworthy AI. Recuperado de https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai
AI4IA (2020). Artificial Intelligence for Information Accessibility final conference report. Recuperado de https://www.i-c-i-e.org/post/ai4ia-final-conference-report
Behr, A. et al. (2021). Enhancing learning object repositories with ontologies. In World Conference on Information Systems and Technologies (pp. 463-472). Springer, Cham. Recuperado de http://repositorioaberto.uab.pt/handle/10400.2/10693?locale=en
Capurro, R. (2005). Ética de la información. Un intento de ubicación. Códices, 1(2), 89-97. Recuperado de https://ciencia.lasalle.edu.co/cgi/viewcontent.cgi?article=1016&context=co
Capurro, R. (2019). Futuros digitales: breve ensayo sobre la vida sostenible en la era digital. Mètode: revista de difusión de la investigación, 3(102), 32-37. Recuperado de https://metode.es/wp-content/uploads/2019/09/102ES-DOC-capurro-futuros-digitales.pdf
Gebru, T. et al. (2021). Datasheets for datasets. Recuperado de https://arxiv.org/pdf/1803.09010.pdf
Halal, W., Kolber, J., Davies, O. & Global, T. (2016). Forecasts of AI and future jobs in 2030: muddling through likely, with two alternative scenarios. Journal of futures studies, 21(2), 83-96.
Humphreys, P. (2009). The philosophical novelty of computer simulation methods. Synthese, 169(3), 615–626.
Martínez Méndez, F. J., Pastor-Sánchez, J-A. & López Carreño, R. (2019). Linked open data en bibliotecas: estado del arte. Information research, 25(2). Recuperado de http://InformationR.net/ir/25-2/paper862.html
Rodríguez-Ortega, N. (2018). Cinco ejes para pensar las humanidades digitales como proyecto de un nuevo humanismo digital. Humanidades digitales: sociedades, políticas, saberes Artnodes (22), 1-6. http://dx.doi.org/10.7238/a.v0i22.3263
Temesio Vizoso, S. G. (2021). Inteligencia artificial en GLAM: políticas de información. En VI Jornadas de Intercambio y Reflexión acerca de la Investigación en Bibliotecología, La Plata, Argentina. Recuperado de https://www.memoria.fahce.unlp.edu.ar/library?a=d&c=eventos&d=Jev14285
Tomsett, R., Braines, D., Harborne, D., Preece, A. & Chakraborty, S. (2018). Interpretable to whom? A role-based model for analyzing interpretable machine learning systems. Recuperado de https://arxiv.org/ftp/arxiv/papers/1806/1806.07552.pdf
Wooldridge, M. & Jennings, N. R. (1995). Intelligent agents: theory and practice. The knowledge engineering review, 10(2), 115-152.
Zednik, C. (2021). Solving the black box problem: a normative framework for explainable artificial intelligence. Philosophy & technology, 34(2), 265-288.
Notas
1 World Wide Web Consortium W3C: https://www.w3.org/
2 Accesible en: https://www.w3.org/2009/08/skos-reference/skos.html
3 eXplainable Artificial Intelligence.
4 FAIR tiene el significado de justo, equitativo, sin sesgos. En IA, FAIR tiene el sentido de prevenir sesgos hacia determinados subgrupos y mitigar su discriminación.
Recepción: 13 Febrero 2022
Aprobación: 10 Marzo 2022
Publicación: 01 Abril 2022
HTML generado por Redalyc a partir de XML-JATS4R. Proyecto académico sin fines de lucro, desarrollado bajo la iniciativa de acceso abierto.