Como empresa colaboradora de UNIR iTED, nos hacemos eco de la Declaración UNIR para un uso ético de la Inteligencia Artificial en Educación Superior, en donde su editor, Daniel Burgos, director de UNIR iTED, sienta  las bases de consenso que guíen a todos los actores que forman parte del grupo que forma UNIR (profesores, estudiantes, personal de gestión, junta de gobierno, investigadores, etc.) en el uso, aplicación, e incluso desarrollo de soluciones basadas en IA.

De esta declaración, destacamos los principios que fundamentan el diseño, desarrollo y aplicación de las soluciones y herramienta de IA en UNIR, que pretenden establecer los principios fundamentales que guiarán las decisiones en este vertiginoso campo del saber humano, en todas las universidades, empresas y entidades del Grupo, incluyendo todas las capas y roles que los componen: profesores, investigadores, estudiantes, gestores académicos, consejos directivos, cargos intermedios, expertos y cualquier otro relacionado. UNIR fomentará un enfoque centrado en el beneficio de la sociedad, la transparencia y la colaboración, a la vez que promoveremos la ética, la educación y la responsabilidad, en cada paso de su utilización.. El orden de la lista no refleja la prioridad de los principios, que se abordan e implementan con el mismo grado de importancia:

  • Principio de Contribución Social: Se garantizará el alineamiento entre los intereses propios de proyectos científicos y esfuerzos técnicos relacionados con la IA y aquellos de la sociedad, en general o de los sectores donde se aplique, ya sean industriales, educativos, de servicios, o cualquier otro.
  • Principio de Equidad: Se enfatizará el uso de sistemas IA sin ningún tipo de discriminación de usuario o público objetivo. El uso de productos, tecnologías y servicios IA no estigmatizará, incriminará o discriminará por razón de sexo, etnia, credo, religión, edad, discapacidad, afinidad política, orientación sexual, nacionalidad, ciudadanía, estado civil o estatus socioeconómico, o cualquier otra condición personal, física o social (UNIR, 2020). Se evitarán, por tanto, los sesgos por sectores, dentro de los márgenes posibles, en la configuración y desarrollo de productos y servicios IA. También se evitará el sesgo algorítmico inherente a esta disciplina a día de hoy, tanto en los desarrollos propios como en los productos IA de terceros y usados en cualquier capa del grupo educativo (gestión ejecutiva, gestión académica, docencia, atención al estudiante, ) Se vigilará que la IA no perpetúe ni amplifique desigualdades existentes, sino que sea una herramienta para fomentar la equidad y la inclusión en la sociedad.
  • Principio de Capacitación: Se capacitará en la utilización de sistemas. Se formará a empleados, estudiantes, profesores y otros profesionales para que sigan prácticas responsables en el uso, distribución, divulgación y producción de las tecnologías y servicios basados en IA, coherentes con las normas éticas del grupo. Asimismo, se fomentará la concienciación sobre los mismos, a cualquier nivel, en cualquier sector del ecosistema educativo.
  • Principio de Supervisión: Se mantendrá el uso, configuración e implementación de la IA de forma completamente controlada por personal competente, dejando en su juicio la última decisión sobre cualquier aspecto relacionado, sin ser delegado el mismo en sistemas AI que tomen decisiones completamente automatizadas.
  • Principio de Ética: Se garantizará la ética de los desarrollos propios en IA. Se investigará, implementará y hará uso de sistemas IA propios de acuerdo con las Directrices Éticas de Confianza (EU, 2019a), en consonancia con el Código de Conducta Europeo para la Integridad en la Investigación (ALLEA, 2023).
  • Principio de Confidencialidad: Se fomentará la seguridad y privacidad de datos en uso y desarrollo de sistemas IA. En el caso de configuraciones de uso de productos propios o externos, y en el caso de desarrollos llevados a cabo dentro del grupo educativo (como productos de investigación o soporte), se respetará la confidencialidad del individuo o corporación y se protegerá la privacidad de los datos personales, así como de cualquier dato almacenado, recuperado de manera automática o recogido en forma de campo expreso, cumpliendo la política de privacidad del Grupo Proeduca y con la legislación vigente en el código civil español (en concreto, la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales). Del mismo modo, se protegerán los datos y documentos de Proeduca contra una exposición externa no consentida.
  • Principio de Transparencia: Se promoverá la transparencia de uso y producción de IA. Este aspecto tiene dos vertientes. Por un lado, como institución que hace uso de sistemas IA, Proeduca se compromete a dar cuenta de la aplicación de estos, contexto y alcance. Por otro, como institución comprometida con la investigación, y, por tanto, con la eventual producción de inteligencias artificiales, Proeduca será transparente sobre determinados aspectos sensibles (tales como el modelo neuronal subyacente o los bancos de datos empleados como entrenamiento).
  • Principio de Sostenibilidad: Se alentará la sostenibilidad en la utilización de la IA. Se garantizará la sostenibilidad y desarrollo equilibrado y responsable de sistemas basados en IA, adoptando una postura innovadora y colaborativa sobre impacto ambiental y consumo energético. Se procurará dejar la menor huella ecológica posible y la aplicación del principio DNSH (No Causar Daño Significativo, por sus siglas en inglés) (EU, 2021a).
  • Principio de Conocimiento: Se fomentará la colaboración y el intercambio de conocimientos. En una esfera de conocimiento tan interdisciplinar como es la Inteligencia Artificial, se fomentará la colaboración entre investigadores y pensadores de diferentes campos: científicos de datos, ingenieros, filósofos, legisladores, , de cualquier ámbito, categoría profesional y escala académica.
  • Principio de Trazabilidad: Se garantizará la identificación y trazabilidad de los contenidos producidos por IA. Todo sistema de IA generativa desarrollado o utilizado por Proeduca indicará claramente su origen artificial y su trazabilidad asociada de manera inequívoca, ya sean imágenes, vídeos o textos.

Asimismo, se implementará un sistema de auditoría y seguimiento interno eficaz, dependiente de un comité multi-disciplinar sobre el desarrollo y uso de procesos, servicios y productos propios (o de integración de ajenos) para evaluar periódicamente el nivel de cumplimiento del compromiso que establece el presente manifiesto, así como para sugerir medidas correctivas y transparentes en caso de identificar cualquier desviación significativa.

Fuente de la imagen: Freepik. 

Estamos esperando para ayudarte

Ponte en contacto con nosotros hoy mismo y empecemos a transformar tu negocio desde cero.