Disrupción tecnológica, transformación y sociedad

Text
Read preview
Mark as finished
How to read the book after purchase
Font:Smaller АаLarger Aa

El componente paternalista de la teoría viene dado por el hecho de que para los citados autores es legítimo que el arquitecto del esquema de toma de decisiones intente orientar las determinaciones de las personas con el fin de “mejorar” su calidad de vida. Como soporte los autores presentan abundantes estudios empíricos que acreditan que, en ciertas ocasiones, las personas toman muy malas decisiones, lo que no habrían hecho de haber tenido un total entendimiento de la situación y sus consecuencias, y una capacidad cognitiva ilimitada para comprender todas las variables que pueden incidir en su decisión, además de un completo autocontrol.

En ese orden de ideas, Sunstein (2017) se refiere a la agencia y el control como el poder de las personas sobre sus propias vidas, pero califica la existencia de “pequeños empujones” para llevar a los individuos en direcciones particulares, pero a su manera, de forma que existe la posibilidad de ignorarlos. En palabras de Sunstein (2017: 9):

Un recordatorio es un empujón; también lo es una advertencia. Un dispositivo GPS da un empujón; una regla predeterminada da un empujón. Tenga en cuenta la configuración automática de su teléfono móvil o de su computadora, que puede cambiar libremente. La divulgación de información relevante –por ejemplo, sobre los riesgos de fumar o los costos de los préstamos– cuenta como un estímulo. Una recomendación es un empujón.

De suerte que existen cientos de “pequeños empujones” en nuestra vida cotidiana que pueden influenciar la toma de decisiones, pero que para Sunstein no tienen la capacidad de afectar el aspecto volitivo de la conducta humana. Incluso, el citado autor explica que este fenómeno es antiguo y se aplica naturalmente en circunstancias de gobernabilidad, como en la educación o el uso de señales en un aeropuerto para dirigir el camino de los transeúntes, lo que lo convierte en una circunstancia con alto grado de aceptación. De hecho, las encuestas presentadas en sus investigaciones reflejan que la generalidad de la población acepta de buena gana los “pequeños empujones”, pero hace algunas precisiones, debido a que cuando la gente piensa que las motivaciones son ilícitas desaprueban el empujón. Igualmente, las personas se oponen cuando el propósito va en contravía de los valores de la mayoría.

Con base en los trabajos de Sunstein y Tahler (2008), la doctrina ha señalado que la combinación de la regulación de la arquitectura del ciberespacio con nudges abre un espectro regulatorio nunca antes visto y altamente eficaz para regular, incidir y moldear la conducta social (Calo et al., 2014). Ahora bien, el paternalismo libertario sobre el cual Sunstein y Tahler construyeron su teoría ha sido objeto de muchas críticas de la academia. Una de las principales estriba en que el arquitecto del esquema de toma de decisiones es quien define la dirección hacia la cual “empujará ligeramente” a las personas. A juicio de la doctrina, el arquitecto del esquema de toma de decisiones tiene fallas y no hay forma de garantizar que empuje a las personas en la dirección “correcta”, ni tampoco que utilice tal poder para orientar la conducta social hacia fines que no sean necesariamente beneficios para la humanidad.

En ese orden de ideas, la combinación de la economía conductual con sistemas de IA y big data bajo sofisticadas arquitecturas de big nudging representa un riesgo potencial para nuestra agencia y capacidad para tomar decisiones de manera informada, libre y sin injerencias externas (Puaschunder, 2018).

Lo anterior me recuerda una conversación entre Fei-Fei Li y Yuval Noah Harari en la Universidad de Stanford, donde Harari postuló la siguiente ecuación para explicar la forma en que ciertos conceptos filosóficos tradicionales están siendo cuestionados por las tecnologías disruptivas: conocimiento biológico x poder de computación x datos = habilidad de hackear a los humanos1. Por “hackear a los seres humanos” Harari entiende la capacidad que podrían tener los gobiernos o las organizaciones privadas de orientar nuestro comportamiento en un sentido o dirección que no tomaríamos de forma espontánea.

Pensemos en un ejemplo que hace algunos años parecía sacado de una película de ciencia ficción pero que en nuestros días es más real que nunca y que resulta de la combinación de la IA con la realidad virtual y aumentada. Me refiero a la implementación de sistemas de IA para el procesamiento automatizado de datos en ecosistemas inmersivos lo que puede tener varios propósitos, por ejemplo, la creación de un grafo social inmersivo, la generación de contenido, la creación de avatares, la reducción de los efectos físicos derivados del uso prolongado de artefactos de AR/VR, la generación de recomendaciones publicitarias y la implementación automatizada de reglas comunitarias o políticas de contenido, entre otros.

Al mismo tiempo, el procesamiento automatizado de datos por sistemas de IA en ecosistemas inmersivos podría generar potenciales riesgos para la privacidad y la agencia humana, derivados de la recolección y tratamiento de datos sensibles que permitan profundizar nuestro conocimiento del funcionamiento de nuestros sistemas biológicos y emocionales, lo cual podría reforzar el big nudging.

Por esas razones, a mi juicio el big nudging tiene el potencial de otorgarle a los arquitectos del esquema de toma de decisiones, sin importar si se trata de un gobierno o una organización privada, la capacidad de orientar, incidir o moldear prospectivamente el comportamiento online y offline de las personas sin que se percaten. Tal poder en manos equivocadas genera riesgos y retos, para cuya solución el derecho todavía no tiene una respuesta, por lo que la ética digital jugará un papel crítico hasta tanto los ordenamientos jurídicos no marchen al mismo compás del estado del arte de la IA.

B. ÉTICA DIGITAL Y PRIVACIDAD

La noción de privacidad se refiere a la recopilación, almacenamiento, retención e intercambio de información en forma de datos. Su importancia ha aumentado rápidamente gracias a la sociedad de la información y a los desarrollos tecnológicos que permiten una compilación cada vez más precisa, estructurada e individualizada (Reiman, 2012). Conforme se han venido desarrollando las tecnologías de la información y las comunicaciones, los movimientos de protección de datos personales han llevado a definir un marco jurídico para el almacenamiento de datos y su tratamiento de acuerdo con el cual el derecho a la privacidad constituye el control de la información y la limitación de su acceso (Birnhack, 2010).

La privacidad reviste la mayor trascendencia para la ética digital en la medida en que existen diversas preocupaciones respecto de los efectos que el mal uso de la información personal causar en la opinión pública o en la “sociedad de la video vigilancia”. Un ejemplo que menciona Jeffrey H. Reiman (2012: 28) para hacer hincapié en este aspecto consiste en la metáfora que usó el filósofo francés Michel Foucault respecto del Panóptico de Bentham:

El Panóptico era el plan de Jeremy Bentham para una prisión en que un gran número de convictos podrían ser mantenidos bajo vigilancia por muy pocos guardias. La idea era construir las celdas de la prisión en un círculo alrededor del puesto de guardia. Todos los prisioneros estarían en silueta contra la luz que entra en las celdas desde las ventanas en el exterior del círculo […] Sus movimientos serían visibles para un solo guardia en el centro.

Foucault se refirió a esta metáfora para explicar los mecanismos de control social a gran escala que se pueden dar en el mundo moderno. Es posible mantener el control social incluso si nadie está vigilando, por lo que la noción de pérdida de la intimidad representa una forma de arrebatar la autonomía dentro de la agencia humana (Reiman, 2012: 27 y ss.). Ahora bien, conviene precisar que la tesis predominante durante los años 80 señalaba que una amenaza a la privacidad solo es preocupante en la medida en que la privacidad sea valiosa o proteja otras cosas que son valiosas. Incluso el tratamiento desproporcionado de los datos personales se justificaba por la teoría laboral de la propiedad de Locke, quien argumentaba “que los desarrolladores de software tienen un natural derecho a controlar el uso de su software” (Reiman, 2012: 72).

C. ORIGEN DE LA ÉTICA DIGITAL YSUAPLICACIÓN EN LA DIGITALIZACIÓN

La noción de ética digital no surgió en el siglo XXI, sino que su origen se remonta a 1940 con la aparición de máquinas informáticas utilizadas en la solución de ecuaciones diferenciales. De acuerdo con Wiener (1961: 4), en ese entonces se logró que

… toda la secuencia de operaciones se [estableciera] en la propia máquina, de modo que no hubiera intervención humana desde el momento en que se [introdujeran] los datos hasta que se sacaran los resultados finales, y que todas las decisiones lógicas necesarias para ello se incorporaran en la propia máquina.

Lo cual significa que los desarrolladores lograron crear una máquina capaz de almacenar datos, procesar información, tomar decisiones lógicas y borrar todo el asunto sin requerir de la intervención humana.

Lo anterior implicó la automatización de procesos, pero el avance en el programa de máquinas de computación a cargo del Vannevar Bush incluyó recomendaciones para su posible uso en una guerra, las cuales no fueron acogidas en su momento. Sin embargo, en los albores de la Segunda Guerra Mundial, y ante la experticia de la aviación alemana, se hizo necesario mejorar la artillería antiaérea, lo cual se logró mediante la incorporación de aparatos de control con cálculos necesarios para establecer la trayectoria de tiempo y espacio en los misiles destinados a un objetivo en movimiento (Wiener, 1961: 3).

 

El agregado de la informática a la guerra suscitó los primeros dilemas de la ética digital derivados del procesamiento automatizado de datos, habida cuenta de que se buscó que la toma de decisiones de guerra no estuviera a cargo completamente de agentes humanos. Así lo relató Wiener:

Desde hace mucho tiempo he tenido claro que la moderna máquina de computación ultrarrápida era en principio un sistema nervioso central ideal para un aparato de control automático; y que su entrada y su salida no tienen por qué ser en forma de números o diagramas, sino que podrían ser, respectivamente, las lecturas de órganos sensoriales artificiales […] ya estamos en condiciones de construir máquinas artificiales de casi cualquier grado de elaboración de rendimiento. Mucho antes de Nagasaki y de que el público conociera la bomba atómica, se me ocurrió que estábamos aquí en presencia de otra potencialidad social de importancia inaudita para el bien y para el mal. La fábrica automática y la línea de montaje sin agentes humanos están sólo tan lejos de nosotros como está limitado por nuestra voluntad de poner tal grado de esfuerzo en su ingeniería como se gastó, por ejemplo, en el desarrollo de la técnica de radar en la Segunda Guerra Mundial.

He dicho que este nuevo desarrollo tiene posibilidades ilimitadas para el bien y para el mal. Por un lado, hace de la metafórica de las máquinas, como imaginó Samuel Butler, un problema muy inmediato y no metafórico. Le da a la raza humana una nueva y más efectiva colección de esclavos mecánicos para realizar su trabajo. Tal trabajo mecánico tiene la mayoría de las propiedades económicas del trabajo esclavo, aunque, a diferencia del trabajo esclavo, no implica los efectos desmoralizantes directos de la crueldad humana (Wiener, 1961: 27).

En efecto, en 1945 se construyó el ENIAC, un integrador numérico electrónico y computacional capaz de calcular balística compleja para el ejército estadounidense. Luego hubo avances en materia de programación y en 1950 se puso en funcionamiento el UNIVAC 1, una computadora automática universal que alcanzó una arquitectura más eficiente respecto del modelo anterior (Floridi, 1999: 5).

Desde entonces se planteó la importancia de resaltar los valores humanos y de usar correctamente la tecnología al servicio del hombre para facilitar la vida misma. Aun desde antes de la guerra se venían dando innovaciones en torno al sistema de navegación naval, los termostatos, los sistemas de incendio, los relojes e, incluso, las máquinas de cálculo rápido, pero la Segunda Guerra Mundial introdujo el concepto de automatismo cibernético para hacer referencia a la mecanización de ciertas actividades digitales con implicaciones en el mundo exterior (Wiener, 1961: 47).

Los cambios suscitados en la ética digital por la aparición de nuevas ramificaciones de la ingeniería eléctrica, la trasmisión de mensajes, el control de maquinaria y el automatismo cibernético se debieron en parte al estudio del lenguaje y de una nueva teoría del método científico promovida por Willard Gibbs, de la cual Norbert Wiener (1965) fue uno de los primeros grandes exponentes. A pesar de su enfoque matemático, Weiner vio la tecnología como una ciencia de aplicación social y filosófica, en lugar de centrarse en ella desde la ciencia aplicada.

Con base en su experiencia relacionada con los desarrollos científicos de la guerra, Weiner (1965: 16) creó un nuevo campo de estudio al que denominó “cibernética”, y dentro del cual se tratan los avances de ciencia y la tecnología, junto con las nociones de comunicaciones y de control del entorno del ser humano. De acuerdo con esta teoría, y después de lo ocurrido con el bombardeo de Hiroshima y Nagasaki, la comunidad científica entendió que

… proporcionar información científica no es un acto necesariamente inocente, y puede implicar consecuencias graves […] El intercambio de ideas, que es una de las grandes tradiciones de la ciencia, debe por supuesto, recibir ciertas limitaciones cuando el científico se convierte en un árbitro de la vida y la muerte (Wiener, 1965: xxvii).

En tal sentido, Weiner (1965) explicó que el diseño de misiles guiados tiene un componente ético importante, puesto que atenta contra la vida de civiles inocentes, cuya integridad y protección no puede ser garantizada por los científicos que trabajan en ese tipo de proyectos. Para Wiener (1965: 17) no había diferencia entre impartir una orden a una máquina o a un ser humano, por ello

[e]l propósito de la Cibernética es desarrollar un lenguaje y unas técnicas que nos permitan atacar el problema del control y la comunicación en general, pero también encontrar el repertorio adecuado de ideas y técnicas para clasificar sus manifestaciones particulares bajo ciertos conceptos.

De manera que no se trata únicamente de dar órdenes a una máquina, sino de que el hombre tenga la oportunidad de percibir las circunstancias con sus órganos sensoriales para actuar y reaccionar frente al mundo exterior. Gracias al automatismo moderno es posible que las máquinas cuenten con órganos sensoriales que reciban mensajes del exterior, tales como células fotoeléctricas, tensiones por conductibilidad, termómetros o metales de contacto de corriente que facilitan la lectura remota (Powers, 2017; Wiener, 1961).

Un ejemplo que se distancia de la guerra, pero que no es ajeno del todo, se puede encontrar en las salas de control de las esclusas del Canal de Panamá. En 1989 el sistema funcionaba con centros de mensajes bidireccionales que controlaban el movimiento de las locomotoras, y la apertura y cierre de las puertas, de tal suerte que se presentaban los indicadores de cumplimiento de las ordenes, pero de no ocurrir, la persona encargada podía apresurar las locomotoras y evitar una catástrofe (Wiener, 1965: 49).

De acuerdo con Wiener (1965), los albores de la ética informática se enmarcaron en la importancia del lenguaje y la asimilación de la comunicación por los “autómatas”, pero se estaba lejos de entender las complejidades que vendrían tiempo después. Las historias de fantasía de ese entonces relataban que el “ultrafax”, como una tecnología futura de trasmisión de mensajes, sería capaz de reemplazar los documentos de forma tan auténtica como el original; para los filósofos de la época dicha capacidad implicaría “transmitir una extensión de los sentidos del hombre y sus capacidades de acción de un extremo a otro del mundo” (Wiener, 1965: 98).

Lejos estaban de imaginar cómo los paquetes de mensajes de datos y el protocolo IP transformarían la forma de comunicación y el ejercicio de los derechos de la agencia humana. Cabe recordar que en 1968 el Departamento de Defensa de los Estados Unidos apoyó la Investigación Avanzada de Agencia de Proyectos (ARPA), mediante la cual se diseñó una red descentralizada funcional para enfrentar un posible ataque nuclear, conocida como ARPANET, que más tarde se convirtió en Internet (Floridi, 1999: 57).

El rol que ocupaba el derecho en el marco de los dilemas éticos planteados consistía en ser una guía de justicia, mediante la cual las autoridades y su poder de intervención social tenderían al ideal ético de relacionamiento entre la comunicación y el lenguaje. En palabras de Wiener (1965: 105):

El derecho puede definirse como el control ético aplicado a la comunicación, y al lenguaje como forma de comunicación, especialmente cuando este aspecto normativo está bajo el control de alguna autoridad suficientemente fuerte para dar a sus decisiones una sanción social efectiva. Es el proceso de ajuste de los “acoplamientos” que conectan el comportamiento de diferentes individuos de tal manera que lo que llamamos justicia puede ser logrado, y las disputas pueden ser evitadas, o al menos adjudicadas. Así, la teoría y la práctica del derecho implican dos conjuntos de problemas: los de su propósito general, de su concepción de la justicia; y los de la técnica por la cual estos conceptos de justicia pueden hacerse efectivos.

En esa medida, en 1989 los ideales éticos eran los propios de la Revolución Francesa, cuando se promulgaron como muestras de buena voluntad entre los seres humanos la libertad, la igualdad y la fraternidad. Así mismo, se comenzaron a desarrollar los principios generales de la justicia y la ley como puntos de partida para ejercer los derechos y deberes, cuyo límite era la certeza razonable de un juez o jurado, quienes fallarían conforme a la ley preexistente, y al debido proceso (Wiener, 1965: 125).

Las discusiones influyeron en la informática y en su impacto en la delincuencia. En 1966 la Association for Computing Machinery creó un código de ética en el que se plasmaron los postulados de Donn Parker respecto de las reglas de ética en el procesamiento de la información, y que distinguía las relaciones de las máquinas con el público, los clientes y otros profesionales. Surgieron entonces las primeras ideas de respeto por la salud, la privacidad, la seguridad y el bienestar general de los consumidores frente a las máquinas informáticas y el procesamiento de la información conforme al estado de arte (ACM Council, 1966).

Parker continuó sus investigaciones, y en 1977 “invitó a profesionales altamente capacitados de diversos campos a evaluar el contenido ético de 47 casos hipotéticos simples que él había creado basado en su conocimiento experto del abuso de la computadora” (Maner, 1996). El estudio sugería que los profesionales tenían desacuerdos en lo que consideraban ético, aun después de hacer un exhaustivo análisis de los casos, por lo que, para sorpresa de Parker, una minoría significativa se aferró a sus opiniones personales y no identificaron los casos de abuso por computadora (Maner, 1996).

Entre los casos de estudio se planteó el acceso del empleador a los historiales criminales de los nuevos empleados de una compañía y se les preguntó a los profesionales si esta era una conducta ética o no. Nueve de los treinta y tres profesionales indicaron que divulgar historiales policiales no tenía ninguna implicación ética, lo cual causó preocupación en la comunidad respecto de si esos profesionales podrían gestionar responsablemente información sensible (Maner, 1996: 2).

La investigación dio como resultado que se abriera el camino a una educación moral correctiva para quienes se preparan en carreras de informática; al respecto Donald Gotterbarn (1991) planteó tres estrategias generales para introducir discusiones sobre ética informática en el plan de estudios. Las reformas incluyeron ingresar tres módulos que abordaron un curso introductorio a los impactos del uso y abuso de la tecnología informática, distribuir la discusión en todo el plan de estudios de ciencias de la computación sobre cuestiones éticas y profesionales planteadas por ese tema en particular, y un enfoque en profundidad para estudiantes de informática. De esa forma, se diseñó un curso capstone de ética informática que tenía como objetivos socializar con los estudiantes las normas profesionales, reconocer las responsabilidades del rol, tomar conciencia de la profesión respecto de la naturaleza, anticipar problemas éticos, razonar en estándares de aplicaciones prácticas, y resolver problemas éticos.

Pese a que la corriente nació con Norbert Wiener, no fue denominada “ética informática” hasta que Walter Maner (1980) identificó sus postulados en un curso de ética médica (Bynum, 2001) y acuñó la terminología en 1980 con la creación de un kit de inicio para la enseñanza de la ética informática. Maner (1996) señaló que existen cuestiones éticas que se transforman por el uso de las computadoras, pero que también aparecen otras cuestiones éticas por la participación de las computadoras en la sociedad.

Moor (1985) planteó que la ética informática consiste en “el análisis de la naturaleza y el impacto social de la tecnología informática y la correspondiente formulación y justificación de políticas para el uso ético de dicha tecnología”. A partir de lo cual se consideró que el estudio de esta disciplina debía ser abordado desde una perspectiva más amplia, que involucrara las computadoras y la tecnología asociada a ellas, lo que incluía el hardware y el software. La importancia de estudiar la ética informática obedeció al vacío político que existía frente a las nuevas capacidades de la innovación y el impacto que podría tener en los próximos años.

 

En esta línea, el profesor Maner indicó que, “[d]ado que los vacíos de políticas son temporales y las tecnologías informáticas evolucionan rápidamente, cualquiera que estudie ética informática tendría la tarea perpetua de rastrear un objetivo en rápido movimiento y en constante cambio”, para señalar que las políticas tendrán que transformarse en la medida en que la tecnología lo haga e, incluso, que es posible que surjan problemas éticos prácticos aun cuando la política pública no los haya previsto (Moor, 1985).

En contraposición, en el escenario apareció Deborah G. Johnson (2004), quien indicó que “no creía que las computadoras crearan problemas éticos completamente nuevos, sino que dieron un nuevo giro a cuestiones ya familiarizadas como la propiedad, el poder, la privacidad y la responsabilidad” (Bynum, 2001). En tal sentido, “la ética médica, la ética legal y quizás la ética empresarial se desarrollan con un contenido estándar, pero algunas de las nuevas áreas de ética aplicada no tienen contenido reconocido y la ética informática es una de esas áreas” (Moor, 1985).

La profesora Johnson (2004) estructuró una nueva agenda de investigación en ética informática, la cual se componía de obligaciones especiales para el profesional de la informática a través de códigos de conducta, entre ellos, aceptar la responsabilidad por las fallas en los programas de computadora, respetar la privacidad, prevenir respecto de las amenazas informáticas, reducir la brecha frente aquellos que no han podido acceder a esta tecnología y desarrollar una legislación referida al reconocimiento de la propiedad intelectual.

En ese orden de ideas, la evolución de ARPANET y la aparición de host comerciales en 1990, significó considerar una nueva semántica o espacio conceptual denominado “ciberespacio”, que no es propiamente un espacio vacío, sino un elemento potencialmente infinito de saturación cartesiana y semiubicuidad (Johnson, 2004). Este nuevo fenómeno de entidad virtual trajo consigo implicaciones filosóficas importantes, ya que las tecnologías emergentes encontraron en Internet un lugar ideal para operar y consolidar las relaciones humanas que antes tenían un entorno netamente físico.

Así las cosas, el estudio ético de los fenómenos de la revolución científica no obedece a un análisis meramente técnico en la informática o la computación, sino a una reflexión del conocimiento acerca de la informática en las humanidades. Como señala Deborah G. Johnson (2004: 68):

A medida que la tecnología informática evoluciona y se despliega de nuevas maneras, ciertos problemas persisten –problemas de la privacidad, los derechos de propiedad, la responsabilidad y valores sociales. Al mismo tiempo, surgen nuevos y aparentemente problemas únicos. Las cuestiones éticas pueden ser organizadas al menos de tres maneras diferentes: según el tipo de tecnología; según al sector en el que se utiliza la tecnología; y según los conceptos o temas éticos.

Ahora bien, no se puede perder de vista que estas nociones preliminares de ética informática se gestaron sobre los paradigmas y desarrollos propios de la primera y segunda revoluciones industriales. En dicha época se incorporó la matemática en la realización de secuencias lógicas, lo que más tarde se tradujo en máquinas de computación informática capaces de canalizar órdenes. Sin embargo, los avances de la tercera y cuarta revoluciones llegaron mucho más lejos y plantearon nuevos desafíos respecto de las innovaciones en procesos de automatización mucho más sofisticados. Un ejemplo de ello llegó en 1971, cuando Intel lanzó el primer microprocesador comercial del mundo, componente tecnológico que actualmente está presente en prácticamente cualquier dispositivo, tanto así, que para 1998 ya había más de quince mil millones de chips operando en todo el mundo (Floridi, 2008).

Para la década de 1990 la ética informática estaba fuertemente influenciada por corrientes filosóficas en las cuales ya no se analizaban los problemas desde la perspectiva técnica de la programación, sino que lo que realmente importaba era cómo el ciberespacio estaba transformando a los seres humanos. Aspecto que Krystyna Gorniak-Kocikowska (1996) describió de la siguiente manera:

Cada una de las antiguas revoluciones tecnológicas cambió la forma en que la gente funcionaba en la [n]aturaleza; sin embargo, con la tecnología informática existe la probabilidad de que se cree una realidad alternativa a la [n]aturaleza e igualmente compleja. Los humanos deben ser vistos como habitantes de ambos mundos.

Hasta aquí hemos visto que a lo largo del siglo XX el desarrollo de la tecnología presenta una realidad de carácter técnico que impulsó el fenómeno de la innovación, pero que a su vez expuso un nuevo escenario de dilemas éticos que llevaron al surgimiento de la ética informática, la cual va más allá de lo que se entiende por ética profesional en estricto sentido.

Para Gorniak-Kocikowska (1996: 5), la ética informática tiene un impacto global que no se relaciona exclusivamente con la computación y la interpretación aritmética, sino que nace de un raciocinio que surgió con la aparición de la imprenta en la segunda mitad del siglo XVIII. En esa etapa tener acceso al conocimiento era visto como un privilegio que se generalizó cuando

[l]as masas de creyentes que solían obedecer a los poseedores de conocimiento, descubrieron que eran individuos racionales capaces de hacer sus propios juicios y decisiones. Esto preparó el camino para los dos nuevos conceptos éticos que fueron creados en última instancia por Immanuel Kant y Jeremy Bentham.

En ese orden de ideas, la ética informática no aplica solamente para la “maleabilidad lógica” de las computadoras planteada por James Moor, sino que trasciende a todo aquello que tiene un carácter de versatilidad en las comunicaciones. De esa manera, a juicio de la citada autora, la ética informática no surgió por la revolución de la computación, sino que ha estado presente en la historia de la humanidad y puede explicarse a través de las teorías filosóficas existentes (Gorniak-Kocikowska, 1996).

La profesora Gorniak-Kocikowska explica que, para el caso de la tecnología, el marxismo es la teoría que mayor influencia ha tenido y que responde a los cambios que la revolución industrial causó en la sociedad. De acuerdo con dicha noción, la producción colectiva de bienes conforme a la propiedad de capital y su carácter internacional constituye una teoría ética en la medida en que los propietarios son legítimos por el producto de su trabajo y se abren las fronteras para el libre mercado (Gorniak-Kocikowska, 1996).

La doctrina señala que incluso algunas de las teorías éticas del marxismo no eran nuevas. Deborah Johnson (2008: 70 y 71) utilizó la ética de Bentham y Kant para sustentar que dichas teorías no surgieron de manera inmediata con la invención de la imprenta, sino que su evolución ocurrió años después de manera progresiva en la medida en que las personas tuvieron acceso al conocimiento. A juicio de esta autora, el acceso a la información significó el entendimiento del concepto de naturaleza humana, que luego fue interpretado a la luz de la capacidad del individuo para hacer juicios razonables y tomar decisiones libremente dentro del contrato social, todo ello en el desarrollo filosófico promovido por Hobbes, Locke y Rousseau.

Lo anterior se resume en dos sistemas éticos concretos: el utilitarismo, basado en la premisa de actuar para lograr la felicidad del mayor número de personas posibles, y en el que el ideal de felicidad puede ser un equilibrio de derechos y deberes, conforme a las ideas de Bentham y Rawls. Mientras que el ideal del hemisferio occidental se enmarca en una concepción del ser humano como un fin y no un medio, de acuerdo con la metafísica propuesta por Kant (Brey, 2000; Gorniak-Kocikowska, 1996; Johnson, 2004).