Guía para Terceras Partes que Usan Inteligencia Artificial en la Resolución de Disputas

Aplicando los Estándares de Resolución de Disputas en Línea

La guía general abarca todos los estándares de práctica en ODR aplicables a terceros que intervienen en la gestión de disputas o conflictos.

La implementación de inteligencia artificial en la gestión de disputas —tanto en entornos presenciales como en línea— ofrece beneficios significativos para mejorar la eficacia y el acceso a la justicia, pero también introduce riesgos para las partes en conflicto, los terceros intervinientes y las entidades de resolución de disputas.

En consecuencia, NCTDR e ICODR han desarrollado esta guía con el objetivo de abordar lo que será, inevitablemente, el uso de inteligencia artificial en todas las formas de intervención en conflictos.


PREFACIO

Para aquellos que participan en todas las formas de gestión de conflictos —mediación, facilitación, arbitraje, coaching, etc.—, existe una necesidad crítica de orientación sobre cómo y si integrar plataformas y aplicaciones de inteligencia artificial en la práctica.

Es muy poco probable que la regulación nacional aborde las cuestiones éticas y los estándares de práctica particulares comunes a todos los interventores en disputas. Es probable que la orientación útil sobre IA provenga de estándares profesionales que también cruzan fronteras, como los desarrollados conjuntamente por el NCTDR y el ICODR e incorporados en estándares internacionales.

Este documento de Guía tiene tres elementos esenciales. Primero, aborda los requisitos éticos específicos y los estándares de práctica para aquellos involucrados en la intervención en disputas o conflictos. Segundo, porque las éticas básicas asociadas con la gestión de disputas o conflictos también son clave para cualquier práctica que gestione la comunicación y el intercambio de información, cruza fronteras profesionales y de práctica y es útil para una amplia gama de prácticas. Tercero, proporciona orientación para implementar los Estándares de ODR mientras los practicantes determinan qué aplicaciones de IA son las mejores para usar y cuándo, y, como bono adicional, suministra a los desarrolladores orientación que es importante para los usuarios y que puede impulsar la adopción.

Importante, en este documento como en los Estándares de ODR, la Resolución de Disputas en Línea se enmarca como inclusiva de cualquier proceso o intervención utilizada para manejar disputas cuando emplea comunicaciones electrónicas y otras tecnologías de la información y la comunicación, ya sea cara a cara o en línea.

La orientación general abarca todos los Estándares de ODR de práctica para terceras partes involucradas en la gestión de disputas o conflictos. Cada uno de los Estándares de ODR es importante para la práctica ética y aquí se destacan algunos problemas que sobresalen como ejemplos de lo que exige atención inmediata para asegurar que las terceras partes estén creando un campo de juego seguro y nivelado para las partes con las que trabajan.

  • La confidencialidad en los intercambios orales o escritos, y en el intercambio de información entre las partes puede verse dramáticamente afectada por el uso de plataformas y aplicaciones de IA. Hazlo una prioridad leer y entender la sección “Confidencial” de la guía.
  • La práctica competente exige que las terceras partes tanto comprendan las plataformas y aplicaciones que usan con las partes, como que sean capaces de explicar esas plataformas y aplicaciones y su uso a las partes, los abogados y otros participantes. Hazlo una prioridad leer y entender la sección “Competente” de la guía.
  • La transparencia al usar IA se refiere no solo a la transparencia del proceso, sino también a la transparencia respecto del uso de IA por parte de la tercera parte y del uso de IA por parte de las propias partes. Una vez más, hazlo una prioridad leer y entender la sección “Transparente” de la guía.

La información generada por IA, comúnmente denominada “información sintética”, difiere fundamentalmente de la comunicación digital tradicional. Mientras que el correo electrónico, el procesamiento de textos o las tecnologías de videoconferencia entregan los datos exactamente como fueron creados, los sistemas de IA generan contenido que inherentemente refleja sus sesgos y limitaciones. Los practicantes deben reconocer esta distinción crítica al aplicar la presente orientación.


ORIENTACIÓN SOBRE IA

El despliegue de inteligencia artificial en la gestión de disputas, ya sea cara a cara o en línea, ofrece valiosos beneficios para aumentar la eficacia y el acceso a la justicia, pero también plantea riesgos para las partes en disputa, las terceras partes y las entidades de resolución de disputas.

A la luz de esto, el Consejo Internacional para la Resolución de Disputas en Línea —ICODR—, junto con el Centro Nacional para la Tecnología y Resolución de Disputas, elaboró la Guía para Terceras Partes que Usan Inteligencia Artificial en el contexto de la aplicación de los Estándares de ODR.

Los Estándares de ODR articulan los requisitos básicos para una práctica ética y la orientación puede ayudar a quienes participan en ODR a tomar decisiones importantes sobre si, cuándo y cómo aprovechar la IA para implementar eficazmente los Estándares.

Además, dado que la innovación y experimentación en IA continuarán avanzando más rápido que las actualizaciones de los Estándares, la orientación que incluye preguntas clave también puede ser útil cuando exista un desfase temporal en las revisiones y el desarrollo de los Estándares.

Este documento de Guía está diseñado para ser educativo y empoderador para quienes se “autocertifican” como cumplidores de los Estándares de ODR en la era de la IA, y tiene el potencial de aumentar la confianza y el tráfico hacia su práctica.

Los Estándares de ODR publicados por el NCTDR-ICODR se enumeran a continuación entre comillas y en cursiva, y a continuación de cada uno se presenta la orientación relacionada con la IA del NCTDR-ICODR.


“Para operar de manera ética, los procesos de ODR deben ser:”

Accesible

La ODR debe ser fácil de encontrar dentro de un sistema y de participar en ella, y no debe limitar el derecho de las partes a la representación. La ODR debe estar disponible en canales de comunicación accesibles para todas las partes, minimizar los costos para los participantes y ser fácilmente accesible por personas con diferentes tipos de capacidades.

Orientación: Las herramientas de IA utilizadas deben estar diseñadas para acomodar a usuarios con discapacidades. Deben proporcionar acceso según las necesidades lingüísticas del usuario y estar disponibles en su jurisdicción. Los sistemas de IA deben ser capaces de comprender y adaptarse a los matices culturales mientras se comunican con las partes.

Responsable

Los sistemas de ODR deben ser continuamente responsables ante las instituciones, los marcos legales y las comunidades a las que sirven. Las plataformas de ODR deben ser auditables y la auditoría debe estar disponible para los usuarios. Esto debe incluir supervisión humana de: i) la trazabilidad del origen de los documentos y del camino hacia el resultado cuando se emplea inteligencia artificial, ii) la determinación del control relativo otorgado a las estrategias de toma de decisiones humanas y artificiales, iii) los resultados, y iv) el proceso de garantizar la disponibilidad de los resultados a las partes.

Orientación: Debe haber supervisión humana de las intervenciones basadas en IA a lo largo de todo el proceso, incluyendo, pero sin limitarse a, el apoyo administrativo, el análisis, las recomendaciones y las decisiones. Los practicantes deben asegurar que el origen de los documentos y el camino hacia los resultados generados por IA sean auditables, y aclarar la proporción de toma de decisiones realizada por humanos frente a IA. Los usuarios deben tener acceso a auditorías de las operaciones de IA para fomentar la confianza y permitir la verificación independiente. Las decisiones de usar IA deben ponderarse a la luz del alto costo ecológico de su uso.

Competente

Los proveedores de ODR deben tener la experiencia relevante en resolución de disputas, ejecución técnica, idioma y cultura necesaria para prestar servicios competentes y eficaces en sus áreas objetivo. Los servicios de ODR deben ser oportunos y usar el tiempo de los participantes de manera eficiente.

Orientación: Los practicantes deben tener suficiente experiencia no solo en resolución de disputas, sino también en el despliegue técnico y ético de la IA específicamente dentro de tales procesos. Los proveedores y desarrolladores deben construir la IA que se utilizará en la gestión de disputas de manera que permita a los practicantes comprender los elementos básicos de las aplicaciones de IA.

La competencia incluye comprender los posibles beneficios de la IA, así como sus limitaciones, sesgos, implicaciones culturales o lingüísticas, y los requisitos y responsabilidades legales. La competencia incluye no solo la capacidad de comprender la naturaleza de las plataformas de IA que se utilizarán, sino también la capacidad de comunicar a las partes la naturaleza de la IA y su uso.

Las terceras partes deben usar IA solo cuando mejore la competencia del proceso sin comprometer la equidad. Los practicantes deben ejercer suficiente juicio y diligencia debida al confiar en información generada por IA, manteniendo una supervisión activa y una verificación independiente de la información generada por IA que influya en la equidad procesal y el resultado.

El usuario humano retiene la responsabilidad de garantizar que las decisiones basadas en los resultados de la IA sean precisas y legales. Los conjuntos de datos sobre los que se basan las herramientas de IA deben ser relevantes para las jurisdicciones culturales y legales en las que se utilizarán.

Confidencial

Los proveedores de ODR deben hacer todo esfuerzo genuino y razonable para mantener la confidencialidad de las comunicaciones de las partes de acuerdo con las políticas que deben articularse a las partes respecto de i) quién verá qué datos, ii) cómo y con qué fines se pueden usar esos datos, iii) cómo se almacenarán los datos, iv) si, cómo y cuándo se destruirán o modificarán los datos, y v) cómo se comunicarán las divulgaciones de brechas y los pasos que se tomarán para prevenir su repetición.

Orientación: Los sistemas de IA deben salvaguardar los datos de las partes y ser transparentes sobre cómo se protegen los datos. Debe haber políticas claras sobre quién puede ver los datos, los fines del uso de datos por parte de la IA y cómo se destruyen o modifican los datos. Los practicantes deben divulgar de inmediato cualquier brecha relacionada con la IA y explicar las medidas correctivas. Debe haber claridad en el proceso sobre el rol de las partes en términos de uso de IA y confidencialidad.

Igualdad

Los proveedores de ODR deben tratar a todos los participantes con respeto y dignidad. La ODR debe buscar habilitar las voces a menudo silenciadas o marginadas para que sean escuchadas y esforzarse por garantizar que los privilegios y desventajas fuera de línea no se repliquen en el proceso de ODR.

La ODR debe proporcionar acceso a las instrucciones del proceso, la seguridad, la confidencialidad y el control de datos a todas las partes. La ODR debe esforzarse por garantizar de manera continua que ningún proceso o tecnología incorporada en la ODR proporcione a ninguna parte una ventaja tecnológica o informativa debido a su uso de la ODR.

Se debe evitar proactivamente el sesgo en todos los procesos, contextos y respecto de las características de las partes. El diseño del sistema de ODR debe incluir esfuerzos proactivos para prevenir que cualquier función de toma de decisiones basada en inteligencia artificial cree, replique o agrave sesgos en el proceso o en el resultado.

Se requiere supervisión humana en el diseño y la auditoría del sistema de ODR para identificar sesgos, hacer transparentes los hallazgos a los proveedores y usuarios de ODR, y eliminar los sesgos en los procesos y resultados de la ODR.

Orientación: La IA debe ser supervisada activamente por humanos para evitar replicar o amplificar sesgos. Los practicantes deben asumir la responsabilidad de emplear tanto supervisión humana como tecnología para detectar y eliminar sesgos en los procesos o resultados impulsados por IA. Deben estar familiarizados con el alcance y la fuente de los datos utilizados por la herramienta de IA, y buscar datos sobre sus sesgos y confiabilidad. Deben usar estos datos para tomar decisiones informadas sobre el uso de herramientas de IA particulares.

Los sistemas de ODR deben evaluarse periódicamente para garantizar que ningún participante obtenga una ventaja tecnológica o informativa mediante el uso de IA. Se debe prestar atención a si y cómo las partes pueden ser des/empoderadas a través del uso de IA en términos de su conocimiento y acceso. Se deben tomar decisiones proactivas para mejorar el empoderamiento y prevenir el desempoderamiento mediante la selección y el uso de herramientas de IA.

Justo e Imparcial

La ODR debe tratar a todas las partes de manera equitativa y con el debido proceso, sin sesgos ni beneficios a favor o en contra de individuos, grupos o entidades. Los conflictos de interés de los proveedores, participantes y administradores del sistema deben divulgarse con antelación al inicio de los servicios de ODR. La obligación de divulgar tales circunstancias será una obligación continua a lo largo de todo el proceso de ODR.

Orientación: La selección de herramientas de IA debe incluir conocimiento de datos sobre su reproducción o generación de sesgos e información inexacta, así como la frecuencia de estas ocurrencias. Las herramientas de IA utilizadas deben operar con supervisión humana para prevenir, identificar y, cuando se encuentren, eliminar su sesgo hacia cualquier parte.

Considerar cómo el uso de IA podría aumentar el acceso a la información y la participación que pueda mejorar tanto un proceso justo como aumentar el empoderamiento de las partes. Los posibles conflictos de interés derivados de los algoritmos de IA o de sus desarrolladores deben evitarse y divulgarse tan pronto como se descubran.

Legal

Los proveedores de ODR deben cumplir, defender y divulgar a las partes las leyes y regulaciones relevantes bajo las cuales cae el proceso.

Orientación: Los sistemas de IA deben cumplir con todas las leyes, regulaciones y estándares relevantes sobre privacidad de datos, gobernanza de IA y resolución de disputas. Los practicantes deben mantenerse al día con los estándares legales en evolución para la IA e informar a los usuarios en consecuencia. Los conjuntos de datos y los resultados de la IA deben contextualizarse geográficamente para garantizar que los análisis, resoluciones o recomendaciones sean apropiados para las jurisdicciones legales de las partes.

Seguridad

Los proveedores de ODR deben hacer todo esfuerzo genuino y razonable para garantizar que las plataformas de ODR, incluidas las plataformas de IA, sean seguras y que los datos recopilados y las comunicaciones entre quienes participan en la ODR no se compartan con ninguna parte no autorizada. Las divulgaciones de brechas deben comunicarse junto con los pasos tomados para prevenir su repetición.

Orientación: Las herramientas de IA utilizadas deben proporcionar una fuerte seguridad para proteger la integridad y la privacidad de los datos. Las partes deben identificarse mediante mecanismos seguros. Cualquier brecha de datos relacionada con la IA debe divulgarse junto con acciones correctivas para prevenir su repetición. Las herramientas de IA deben tener un plan de protección de datos que aborde los procesos de protección, divulgación y acciones correctivas, y que sea accesible para todas las partes.

Transparencia

Los proveedores de ODR deben divulgar explícitamente con antelación y de manera significativa y accesible: i) la forma y la ejecutabilidad de los procesos y resultados de resolución de disputas y ii) los riesgos, costos —incluyendo para quién— y beneficios de la participación.

Los datos en la ODR deben recopilarse, gestionarse y presentarse de manera que se garantice que no se tergiversen ni se saquen de contexto. Las fuentes y los métodos utilizados para recopilar cualquier dato que influya en cualquier decisión tomada por inteligencia artificial deben divulgarse a todas las partes.

La ODR que usa inteligencia artificial debe afirmar públicamente el cumplimiento de la legislación, regulaciones o, en su ausencia, directrices jurisdiccionalmente relevantes sobre transparencia y equidad de los sistemas de inteligencia artificial.

La ODR debe divulgar claramente el rol y la magnitud de la influencia de la tecnología en la restricción o generación de opciones y en las decisiones o resultados finales. Las auditorías de los sistemas y plataformas de ODR deben identificar métricas utilizadas para evaluar el rendimiento del sistema, haciendo conocidas y accesibles la precisión y exactitud de estas métricas a cualquier operador y usuario del sistema de ODR.

Los usuarios deben ser informados de manera oportuna y accesible de cualquier brecha de datos y de los pasos tomados para prevenir su repetición.

Orientación: Los practicantes deben divulgar cómo y cuándo en el proceso la IA influye en los procesos y resultados de gestión de disputas, incluyendo las fuentes de recopilación de datos utilizadas por la herramienta de IA. Los practicantes deben declarar claramente en un lenguaje accesible a las partes con antelación la magnitud de la influencia de la IA en la generación o reducción de opciones y en la toma de decisiones.

Las partes deben ser informadas del nivel y tipo de supervisión humana sobre el uso de IA en el proceso de resolución de disputas y sobre el resultado. Deben hacer transparentes las razones o motivos detrás de una decisión dada tomada usando IA, ya que la falta de explicabilidad e interpretabilidad legal puede ocultar errores subyacentes o sesgos sistémicos, poniendo en peligro en última instancia la equidad y la confiabilidad del proceso.

Deben comunicar que cumplen con la legislación, regulaciones, estándares y directrices relevantes sobre transparencia de IA. El uso de plataformas o aplicaciones de IA debe divulgarse a las partes sobre las formas en que el uso de la IA impacta directamente en la interacción —o falta de ella— de la tercera parte con las partes.


PREGUNTAS QUE LAS TERCERAS PARTES HUMANAS DEBEN CONSIDERAR RESPECTO DEL USO POTENCIAL DE PLATAFORMAS DE IA

Estas preguntas, aunque no son una lista exhaustiva, se ofrecen como una lista de verificación práctica para su consideración previa al desplegar IA en procesos de intervención en conflictos. Pueden resultar útiles para los desarrolladores al crear herramientas que los practicantes, los programas de resolución de disputas y los tribunales puedan desear usar.

Accesible

  • ¿Quién tiene acceso y a través de qué medios? ¿Se niega el acceso, de facto o de jure, a algunos? ¿Cuáles son las implicaciones de cualquier acceso desigual?
  • ¿Qué información se necesita para evaluar los beneficios y riesgos diferenciales para las partes, incluida la tercera parte humana, si se usa una herramienta de IA particular?
  • ¿Cómo podrían las discapacidades, la familiaridad con herramientas de IA, el costo y las limitaciones de tiempo impactar diferencialmente los beneficios y riesgos de usar IA?
  • ¿Cuál es el costo inicial o continuo y cuáles son los términos de servicio?
  • ¿Cuáles son las políticas y costos de actualizaciones y mantenimiento?
  • ¿Se integrará con otras plataformas tecnológicas?
  • ¿Se puede personalizar la apariencia y el estilo de la plataforma?

Responsable

  • ¿Cuál es el nivel de supervisión humana sobre las funciones de IA?
  • ¿Existe un historial de confiabilidad y precisión? ¿Proporciona una entidad independiente una auditoría o revisión?
  • Responsabilidad: ¿quién es responsable de la estructura de los sistemas de IA y quién es responsable del daño que puedan causar?
  • Protecciones al consumidor: si hay disputas o daños causados por el uso de la plataforma, ¿existen protocolos de reparación o resolución de disputas para abordarlas?
  • Supervisión humana: ¿hay humanos en o sobre el bucle mientras se usa la IA?

Competente

  • ¿Cómo pueden las herramientas de IA mejorar la competencia y eficiencia del proceso? ¿Aumentar la probabilidad de mayor generación de ideas y creatividad? ¿Mejorar el acceso a la justicia?
  • ¿Qué competencia se necesita para ejecutar un proceso usando la herramienta de IA? ¿Para guiar a las partes en su uso?
  • Eficiencia: ¿la plataforma de IA hace un uso eficiente del tiempo y causa el menor daño ecológico posible?
  • ¿Se ofrece soporte y capacitación a los usuarios potenciales?
  • ¿Cuál es la medida básica de desarrollo o uso competente de IA, y cómo se mide y reconoce esa competencia, y ante quién?
  • ¿Los conjuntos de datos sobre los que se basan las herramientas de IA son relevantes para las jurisdicciones culturales y legales en las que se utilizarán?
  • ¿El sistema de IA me permite revisar sus resultados en todas las etapas del proceso para garantizar la supervisión humana sobre el proceso y el resultado?
  • Conflictos de interés: ¿se define la naturaleza de los conflictos de interés y existe un mecanismo para divulgarlos? ¿A quién y cómo se divulgan? ¿Se declara antes de participar en el proceso?
  • ¿Cómo lidiar con el mayor potencial de gran desequilibrio entre las partes si usan sus propias herramientas de IA?
  • ¿Con qué frecuencia deben revisarse los sistemas de IA y, si es necesario, actualizarse o mejorarse para garantizar precisión, confiabilidad y una experiencia óptima para el usuario? ¿La versión del sistema de IA que opera cuenta con herramientas confiables y actualizadas?

Confidencial

  • ¿Cuáles son las políticas de confidencialidad y seguridad de datos?
  • ¿Cuáles son los riesgos de seguridad de datos y para quién? ¿Cuáles son los beneficios y para quién?
  • Confidencialidad: ¿cómo pueden los proveedores y usuarios de IA comunicar claramente los parámetros de lo que ofrece una plataforma de IA y su uso en este aspecto?
  • ¿La plataforma garantiza que la información personal y profesional suministrada por los usuarios no será vista por personas no autorizadas?
  • Seguridad de datos: ¿cómo garantiza la plataforma que la información generada durante su uso no será distribuida ni obtenida por actores no autorizados?
  • Uso de datos: ¿la plataforma identifica claramente si y cómo se utiliza la información generada por la interacción con la plataforma, incluyendo el aumento del conjunto de datos o base de aprendizaje de la IA y cualquier decisión o resultado emitido por el sistema?
  • ¿Existe una declaración de que el uso de datos no se presenta fuera de contexto y a quién y cómo se proporciona?

Igualdad

  • ¿Qué cambios se necesitan en los protocolos, sistemas o prácticas actuales que usamos para que, al agregar una herramienta de IA, podamos garantizar que estamos maximizando los beneficios para todos y protegiendo a los más vulnerables a sus posibles riesgos?
  • ¿Cuál es el conjunto de datos del que aprende la IA?
  • Prevención y gestión de sesgos: ¿cuáles son los enfoques evaluativos que garantizan que los intentos de prevenir y reducir sesgos en los datos o la programación se aborden continuamente? ¿Que los sesgos que existan puedan identificarse?
  • Igualdad: ¿la plataforma de IA trata a todos los participantes con respeto y dignidad? ¿Busca habilitar las voces a menudo silenciadas o marginadas para que sean escuchadas y se esfuerza por garantizar que los privilegios y desventajas fuera de línea no se repliquen a través de su uso?

Justo e Imparcial

  • ¿Qué pruebas continuas y por parte de quién se necesitan para garantizar que las funciones de IA no reflejen sesgos en el servicio privado o público que ofrecemos?
  • ¿Qué cambios se necesitan en los protocolos, sistemas o prácticas actuales que usamos para que, al agregar una herramienta de IA, podamos garantizar que estamos maximizando los beneficios para todos y protegiendo a los más vulnerables a sus posibles riesgos?
  • Precisión: ¿cómo se mide y reporta la precisión de la información generada por la IA, a quién y bajo qué circunstancias?
  • Prevención y gestión de sesgos: ¿cuáles son los enfoques evaluativos que garantizan que los intentos de prevenir y reducir sesgos en los datos o la programación se aborden continuamente? ¿Que los sesgos que existan puedan identificarse? ¿Cómo podemos maximizar esto tanto para el proceso como para los resultados?
  • ¿Cómo puedo garantizar que los resultados no violen derechos de propiedad intelectual ni presenten datos fuera de contexto?
  • ¿Cómo pueden las terceras partes humanas buscar prevenir el potencial sesgo de autoridad que los resultados generados por IA puedan imponerles a ellas y a las partes en disputa?
  • ¿Cómo podemos buscar evitar que tales resultados adquieran un peso normativo o probatorio percibido que sea aceptado de manera consciente o inconsciente en lugar de que todas las partes ejerzan su propia evaluación crítica?
  • ¿Qué protocolo de supervisión humana se necesita para garantizar que la insuficiencia en la contextualización de un resultado de IA se contextualice apropiadamente para la especificidad del caso?
  • ¿Podemos agregar el uso de un RAG para fortalecer el conjunto de datos y hacerlo más relevante para nuestros fines?
  • ¿Qué RAG se puede incorporar para mejorar la precisión de los resultados de la IA al acceder a datos contextuales específicos y relevantes al generar sus respuestas?
  • ¿Qué decisiones deben tomarse sobre proporcionar el coaching necesario a una parte en el uso de herramientas de IA cuando las otras no necesitan tal asistencia? ¿Cómo podría esto impactar en la diferencia de costos?

Una Generación Aumentada por Recuperación —RAG— puede ofrecer IA que utiliza modelos de lenguaje grandes para buscar e interactuar con conjuntos de datos limitados construidos a partir de profesiones o bases de conocimiento específicas.

Legal

  • ¿Qué regulaciones y estándares afectan mi responsabilidad y responsabilidad civil al ofrecer un servicio que involucra IA?
  • ¿Qué responsabilidad legal y ética tengo respecto del uso e impacto de la IA en el proceso y el resultado?
  • ¿Cómo puedo garantizar que los resultados no violen derechos de propiedad intelectual ni presenten datos fuera de contexto?
  • Protecciones de PI —Propiedad Intelectual—: ¿la plataforma es clara sobre el conjunto de datos del que aprende la IA y garantiza que la propiedad intelectual de los individuos esté protegida o compensada?
  • Derechos humanos: ¿cómo se conforma el uso de la IA con las definiciones, estándares, leyes y tratados relevantes de derechos humanos?
  • Legalidad: ¿la plataforma de IA opera de manera legal en todas las sedes jurisdiccionales en las que se utiliza?

Seguro

  • ¿Cuáles son los riesgos de seguridad de datos y para quién? ¿Cuáles son los beneficios y para quién?
  • Seguridad de datos: ¿cómo garantiza la plataforma que la información generada durante su uso no será distribuida ni obtenida por actores no autorizados?
  • ¿Cuál es el nivel básico de seguridad requerido para nuestro proceso que una herramienta de IA debe ofrecer?
  • ¿Cuáles son los protocolos de brecha de datos del sistema de IA? ¿Qué protocolos necesita la tercera parte para abordar las brechas de datos?
  • ¿Es posible obtener un plan de protección de datos para la herramienta de IA? Si es así, ¿el plan para el sistema de IA discute y planea suficientemente cualquier posible resultado negativo?
  • ¿Cuánto tiempo debe conservarse la información proporcionada a una aplicación de IA antes de que se elimine del sistema y cómo se dispone de ella?
  • ¿Los proveedores relevantes ofrecen información sobre sus protocolos, si los datos eliminados permanecen en copias de seguridad encriptadas y durante cuánto tiempo persisten tales copias de seguridad?

Transparente

  • Auditabilidad: ¿cuál es el proceso para mirar “detrás del telón” en la estructura y el rendimiento de la IA, y quién se ve negativamente afectado cuando falta transparencia?
  • Transparencia: ¿hasta qué grado es visible para los usuarios potenciales el desarrollo, la gestión y el uso de la IA y sus conjuntos de datos?
  • ¿Se informa a los usuarios de los parámetros de influencia humana o su falta cuando se usa IA?
  • ¿Qué protocolos se necesitan para poner en práctica a fin de garantizar la transparencia a las partes sobre el uso de IA y su impacto en el proceso, la generación y restricción de ideas y decisiones, los resultados, el rol de la tercera parte humana, cuándo se usa en el proceso, la cantidad de supervisión humana y para qué funciones, las auditorías de la herramienta de IA y el cumplimiento de las leyes, regulaciones, estándares y directrices de IA?
  • ¿Qué protocolos podrían ayudar a las terceras partes humanas y a las partes en disputa a identificar los beneficios y riesgos de usar una herramienta de IA particular?
  • ¿Cómo podrían tales protocolos o su ausencia impactar en la prevención y/o exacerbación de las diferencias de poder?
  • ¿Cómo contextualiza la herramienta de IA sus respuestas para generar una respuesta adaptada a las circunstancias específicas de la parte y/o del caso?
  • Uso de datos: ¿la plataforma identifica claramente si y cómo se utiliza la información generada por la interacción con la plataforma, incluyendo el aumento del conjunto de datos o base de aprendizaje de la IA y cualquier decisión o resultado emitido por el sistema?
  • ¿Existe una declaración de que el uso de datos no se presenta fuera de contexto y a quién y cómo se proporciona?
  • ¿Esto plantea algún problema de propiedad intelectual, seguridad o confidencialidad?
  • ¿Qué divulgaciones —si las hay— deben hacer las partes en disputa sobre su uso personal de IA separado de cualquier herramienta que ofrezca la tercera parte humana?
  • ¿Cuáles son los riesgos o beneficios y para quién de cualquier restricción a las partes respecto de dicho uso?

Fuente: Guía para Terceras Partes que Usan Inteligencia Artificial en la Resolución de Disputas: Aplicando los Estándares de Resolución de Disputas en Línea. National Center for Technology and Dispute Resolution e International Council for Online Dispute Resolution, 2026.

Votos 0
Enviadme un correo electrónico cuando las personas hayan dejado sus comentarios –

¡Tienes que ser miembro de ODR LATAM para agregar comentarios!

Unirse ODR LATAM

Tutorial para registrarse

ODRLA.COM

FIMEP 2024

 

 

 Un espacio académico y de investigación en la articulación de las Nuevas Tecnologías y la Resolución de Conflictos

 

Temas por etiquetas

Archivos mensuales