¿Pueden Discriminar las Máquinas?

Auteurs-es

DOI :

https://doi.org/10.26512/lstr.v16i1.46871

Mots-clés :

Inteligencia Artificial. Discriminación. Tecnologías de la Información. Marco Ético.

Résumé

Propuesta:  La importancia de este documento radica en que constituye un primer paso hacia la exigencia de un desarrollo tecnológico responsable, pues como toda herramienta creada por el ser humano, puede ser usada en beneficio de la humanidad o en contra de ella.

 

Metodología:  En el desarrollo de este primer avance del proyecto de investigación “Discriminación y ética de la inteligencia artificial”[1], se hizo una revisión bibliográfica y documental de la filosofía de la mente y la ciencia cognitiva de la segunda mitad del siglo XX, para conectar con los avances que en materia de la ética de la inteligencia artificial se tienen hoy, especialmente a partir de la creación de los principios éticos establecidos en 2019 por la Comunidad Europea. Como ya se mencionó, la filosofía de la mente y la ciencia cognitiva, en tanto ramas interdisciplinarias y directamente relacionadas con la neurobiología y la inteligencia artificial, fueron pioneras en la visualización de los problemas alrededor del desarrollo de este tipo de tecnología. Pero en ese entonces, los productos con inteligencia artificial no estaban incorporados a todas las actividades del ser humano como vemos ahora, en donde los problemas no son especulaciones, sino aspectos urgentes a resolver, dado que por ser tan recientes ni los gobiernos, ni las empresas, ni la sociedad están preparados para atenderlos con suficiencia. Desconocemos gran parte del impacto que este tipo de tecnología pueda provocar en el mundo y en la sociedad. Si bien la ética puede ser un tema ajeno al mundo de la ciencia, porque no hace parte de su objeto de estudio y mucho menos de su método, el uso de la ciencia sí está en el objeto de estudio de la ética, puesto que las herramientas creadas por el hombre pueden ser usadas para hacer el daño o para procurar bienestar en la sociedad. Una vez la herramienta empieza a generar consecuencias negativas en los seres humanos y la sociedad, el tema ético y jurídico se ponen a la orden del día.

 

La necesidad de retomar la filosofía de la mente se debe a que, tal como menciona Juan Ignacio del Valle  (2019), los problemas de la inteligencia artificial heredan viejos problemas éticos, para los cuales se siguen buscando mejores respuestas, como es el caso de los dilemas, pero también de aquellas cuestiones que parten de conceptos indeterminados como el de la igualdad. Recordemos que la discriminación es por definición ausencia del principio de igualdad y existen máquinas que provocan acciones o situaciones discriminatorias. Es importante anotar, que las preguntas que este artículo intenta resolver como parte de un proyecto investigativo alrededor del problema de la discriminación, exige un análisis interdisciplinario, una razón más para apoyarnos en la filosofía de la mente y la ciencia cognitiva como disciplinas que abordan el problema de la inteligencia artificial desde la visión científica, tecnológica, lingüística, filosófica, que hacemos extensiva al ámbito jurídico.

 

Finalidad: Este artículo busca resaltar la importancia de llevar a cabo desarrollos técnológicos responsables, pues las tecnologías que cuentan con inteligencia artificial deben ser concebidas para que sus efectos se materialicen en un marco ético y moral, teniendo en cuenta el contexto de las sociedades y  el reconocimiento de los derechos humanos.

 

Implicaciones prácticas:  La Inteligencia Artificial, cada vez, permea diversos aspectos de las sociedades, sin embargo, se hace necesario los riesgos que implica su utilización en materia de discriminación, para implementar medidas que reduzcan este riesgo.

 

 

 

 

[1] El presente artículo es resultado  del desarrollo del proyecto de investigación titulado: “  DISCRIMINACIÓN Y ÉTICA DE LA INTELIGENCIA ARTIFICIAL”, investigadora principal: Maria Karolina Urbano, Coinvestigadora: Lainiver Mendoza Munar. Universidad Cooperativa de Colombia, Sede Cali.

 

 

Téléchargements

Les données relatives au téléchargement ne sont pas encore disponibles.

Bibliographies de l'auteur-e

Lainiver Mendoza Munar, Universidad Cooperativa de Colombia

Abogada, especialista en docencia universitaria, magister en derecho, candidata a doctorado en derecho por la Universidad Carlos III de Madrid y profesora investigadora de la Universidad Cooperativa de Colombia, Sede Cali. E-mail: lainiver.mendoza@campusucc.edu.co.

Maria Karolina Urbano, Universidad Cooperativa de Colombia

Licenciada en Filosofía, Magíster en Filosofía y profesora investigadora de la Universidad Cooperativa de Colombia, Sede Cali. Dirección: Universidad Cooperativa de Colombia, Sede Cali: Cra. 73 #2a-80, Barrio: Buenos Aires, Cali, Valle del Cauca. E-mail: maria.urbanog@campusucc.edu.co.

Références

Böckenförde, E.-W. (1993). Escritos sobre derechos fundamentales. (J. L. Menéndez, Trans.) Baden-Baden: Nomos.

Carlsson, U. (2003). The Rise and Fall of NWICO: From a Vision of International Regulation to a Reality of Multilevel Governance. Nordicom Review, 2, 31-68.

Erk, J. (Winter de 2004). Austria: A Federation without Federalism. Publius, 34(1), 1-20.

Häberle, P. (1962). Die Wesensgehaltgarantie des Art. 19 Abs. 2 Grundgesetz. Karlsruhe: C.F.Müller.

Humboldt, W. v. (1999). On Language: On the Diversity of Human Language Construction and its Influence on the Mental Development of the Human Species. (M. Losonsky, Ed., & P. Heath, Trad.) Cambridge: Cambridge University Press.

Luhmann, N. (2004). Law as a Social System. (K. A. Ziegert, Trad.) Oxford: Oxford University Press.

Baldwin, R., Cave, M., & Lodge, M. (Edits.). (2010). The Oxford Handbook of Regulation. Oxford: Oxford University Press.

Levy, B., & Spiller, P. (. (1996). Regulations, Institutions and Commitment. Cambridge: Cambridge University Press.

Price, M. E., & Noll, R. G. (1998). A Communications Cornucopia: Markle Foundation Essays on Information Policy. Washington, DC: Brookings Institution Press.

Rose-Ackerman, S., & Lindseth, P. L. (Eds.). (2010). Comparative Administrative Law. Cheltenham, UK: Edward Elgar.

Turing, A. (2010). Maquinaria computacional e inteligencia. Obtenido de http://xamanek.izt.uam.mx/map/cursos/Turing-Pensar.pdf

Del Valle, J. (2019). Inteligencia Artificial Ética. Un Enfoque Metaético a la Moralidad de Sistemas Autónomos. Tesis de grado. Universidad Nacional de Educación a distancia UNED. Obtenido de https://www.researchgate.net/publication/337797495_Inteligencia_Artificial_Etica_-_Un_Enfoque_Metaetico_a_la_Moralidad_de_Sistemas_Autonomos_TFG

Dennett, D. (1995). La conciencia explicada. Paidós.

Churchland, P. (1992). Materia y conciencia. Gedisa.

Searle, J. (2000). El misterio de la conciencia. Paidós.

Searle, J. (1996). El redescubrimiento de la mente. Grijalbo Mondadori.

Searle, J. (1997). La construcción de la realidad social. Paidós.

Urbano, C. (2016). Corónica. Obtenido de https://ensayo.revistacoronica.com/2016/05/robot-poeta.html

Orlowski, J. (Dirección). (2020). El dilema de las redes sociales [Película].

Latorre, J. (2019). Ética para máquinas. Ariel.

Fernández, O. (2020). Mujeres en el sector público. Obtenido de La Inteligencia Artificial: ¿un arma de discriminación masiva o un reflejo de la realidad? https://mujeresenelsectorpublico.com/la-inteligencia-artificial-un-arma-de-discriminacion-masiva-o-un-reflejo-de-la-realidad/

Buolamwini, J. (2017). TED. Obtenido de How I'm fighting bias in algorithms: https://www.youtube.com/watch?v=UG_X_7g63rY

Commission, E. (2019). Ethics Guidelines for Trustworthy AI. Obtenido de https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

Queen, E. (2020). Epic Queen . Obtenido de Curso: Inteligencia Artificial y ética: https://www.youtube.com/watch?v=bhTz8bboPlI

Botero, J. R. (2000). Mentes reales. La ciencia cognitiva y la naturalización de la mente. Siglo del Hombre Editores. Universidad Nacional de Colombia.

Turing, A. (2011). Inteligencia artificial. Anagrama.

Téléchargements

Publié-e

2024-05-21

Comment citer

MENDOZA MUNAR, Lainiver; URBANO, Maria Karolina. ¿Pueden Discriminar las Máquinas?. Law, State and Telecommunications Review, [S. l.], v. 16, n. 1, p. 221–238, 2024. DOI: 10.26512/lstr.v16i1.46871. Disponível em: https://periodicos.unb.br/index.php/RDET/article/view/46871. Acesso em: 15 juin. 2024.