¿Son neutros los desarrollos tecnológicos? - Are technological developments neutral?

Autores/as

  • Enrique del Carril UFASTA; UCA; Austral

Palabras clave:

inteligencia artificial, teoría moral, responsabilidad, sociedad digital, cultura

Resumen

El presente artículo revisa los criterios de atribución de responsabilidad moral por los actos dañinos de la Inteligencia Artificial. Se sostiene en él que la atribución de responsabilidad por la intención directa o indirecta del autor, que dirige la voluntad hacia un mal, no alcanza a responder adecuadamente los problemas que plantea la Inteligencia Artificial a la teoría moral.

Para ello se recurre a la diferencia entre objetos naturales y objetos culturales (artefactos) y se sostiene que, si bien hasta la irrupción del mundo digital, ésta no era una diferencia sustancial, lo es ahora por las características de las creaciones humanas (artefactos) digitales.

Se propone, en cambio, que la atribución de responsabilidad podría fundamentarse en los efectos del acto de creación de la Inteligencia Artificial. 

Citas

Alvira, T., Clavell, L., & Melendo, T. (1993). Metafìsica. Pamplona: EUNSA.

Asimov, I. (2004). Yo, Robot. (M. B. Barret, Trad.) Barcelona: Edhasa.

Basso, D. (1997). Los principios internos de la actividad moral. Buenos Aires: CIEB.

García Huidobro, J. (2005). El anillo de Giges. Santiago de Chile: Andrés Bello.

Gilson, É. (2000). El Tomismo. Pamplona: EUNSA.

Hervada, J. (2008). Introducción crítica al Derecho Natural. Buenos Aires: Ábaco.

Monterroza-Ríos, Á. D. (2020). “El papel retroalimentador de los artefactos en el desarrollo de las técnicas humanas”. Trilogía (Ciencia Tecnología Sociedad).

Ortega y Gasset, J. (1957). Meditaciones de la técnica. Madrid: Revista de Occidente.

Pieper, J. (1986). El concepto de pecado. Barcelona: Herder.

Pieper, J. (1997). Las virtudes fundamentales. Madrid: Rialp.

Sadin, E. (2020). La inteligencia artificial o el desafío del siglo. Buenos Aires: Caja Negra Editora.

Descargas

Publicado

2023-03-01