The banality of (automated) evil: critical reflections on the concept of forbidden knowledge in machine learning research
Ver/ Abrir
Metadatos
Mostrar el registro completo del ítemcomunitat-uji-handle:10234/10
comunitat-uji-handle2:10234/158177
comunitat-uji-handle3:10234/610
comunitat-uji-handle4:10234/200089
REVISTESMetadatos
Título
The banality of (automated) evil: critical reflections on the concept of forbidden knowledge in machine learning researchFecha de publicación
2022Editor
Universitat Jaume I amb el suport del Servei de Comunicació i PublicacionsISSN
1130-6149; 2254-4135Cita bibliográfica
Senent, Rosa M. and Bueso , Diego ( 2022 ). The Banality o f (Automated) Evil: Critical Reflections on the Concept of Forbidden Knowledge in Machine Learning Research . Recerca. Revista de Pensament i Anàlisi , 27(2) , pp. 1 - 2 6 . doi: http://dx.doi.org/ 10.6035/recerca.6147Tipo de documento
info:eu-repo/semantics/articleVersión
info:eu-repo/semantics/publishedVersionPalabras clave / Materias
Resumen
The development of computer science has raised ethic al concerns regarding the potential negative impact of machine learning tools on people and society. In this article, we provide three examples of automated evil: ... [+]
The development of computer science has raised ethic al concerns regarding the potential negative impact of machine learning tools on people and society. In this article, we provide three examples of automated evil: deep fake technology (ab) used by anonymous men to make digitally manipulated pornography to harm women; pattern recognition designed to try to uncover sexual orientation; and deep learning and extensive datasets used by private companies to influence democratic elections. We contend that the concept of ‘ forbidden knowledge ’ can help to inform a coh erent ethical framework in the context of data and computer science research and contribute to tackle automated evil . We conclude that restricting generalised access to extensive data and limiting access to ready - to - use codes would mitigate potential harm caused by machine learning tools. In addition, we a dvocate that the notions of intersectionality and interdisciplinarity be systematically incorporated in data and computer science research. [-]
El desarrollo de las ciencias computacionales ha suscitado preocupaciones éticas relacionadas con las consecuencias negativas de algunas herramientas de aprendizaje automático sobre las personas y la sociedad. En este ... [+]
El desarrollo de las ciencias computacionales ha suscitado preocupaciones éticas relacionadas con las consecuencias negativas de algunas herramientas de aprendizaje automático sobre las personas y la sociedad. En este artículo, ofrecemos tres ejemplos de mal automatizado : tecnología deep fake (ab) usada por hombres anónimos para hacer pornografía y dañar a mujeres ; un modelo de reconocimiento de patrones diseñado para intentar descubrir la orientación sexual; y aprendizaje profundo y datos usados por compañías privadas para influir en elecciones democráticas. Defendemos que el concepto de conocimiento peligroso puede formar parte de un marco ético coherente en las ciencias computacionales y ayudar a reducir el mal automatizado . Concluimos que restringir el acceso generalizado a extensas bases de datos y limitar el acceso a códigos disponibles para su uso podría mitigar los daños causados por algunas herramientas de aprendizaje automático. Además, las nociones de interseccionalidad e interdisciplinariedad deberían incorporarse sistemáticamente en la investigación de ciencia de datos y computacional. [-]
Publicado en
RECERCA. Revista de Pensament i Anàlisi, 2022, núm. 27 (2)Derechos de acceso
info:eu-repo/semantics/openAccess