Read the book: «Disrupción tecnológica, transformación y sociedad », page 6

Font:
I. ASPECTOS GENERALES

DANIEL CASTAÑO*
La gobernanza ética de los sistemas de Inteligencia Artificial
The Ethical Governance of Artificial Intelligence Systems

Artificial intelligence like any other living thing needs attention.

(GTP-3)

RESUMEN

La inteligencia artificial ha demostrado tener una capacidad excepcional para el procesamiento de grandes cantidades de datos con fines descriptivos, diagnósticos, predictivos y prescriptivos que están transformando la manera en la que tomamos decisiones. La adopción de este tipo de tecnología disruptiva presenta desafíos frente a la transparencia, responsabilidad, control y explicabilidad de los sistemas de Inteligencia Artificial (IA), particularmente en relación con la privacidad, la agencia humana y la autonomía para tomar nuestras propias decisiones sin ningún tipo de injerencia externa. Sin embargo, el derecho y la tecnología a veces marchan a un compás distinto y este es un vivo ejemplo de ello. Este artículo explica la manera en que la ética digital ha surgido como una respuesta tendiente a garantizar que el diseño, desarrollo e implementación de sistemas de IA bajo ciertos parámetros que garanticen que funcionen con estándares éticos que respeten nuestra autonomía y promuevan el bienestar de la humanidad.

PALABRAS CLAVE

Inteligencia Artificial, nudging, ética digital, privacidad, agencia humana.

ABSTRACT

Artificial intelligence has proven exceptional capabilities to process large amount of data with descriptive, diagnostic, predictive, and prescriptive purposes aimed at disrupting the way in which we make our decisions. The design and deployment of AI systems raises many governance challenges about their transparency, control, explainability, and accountability, particularly in regard to our privacy, agency, and autonomy to make our own decisions. However, law and science sometimes run at different tempos, for which digital ethics plays a fundamental role in filling that gap. This article describes the way in which the field of digital ethics have emerged and unfold as a response to AI systems’ governance challenges to ensure that said systems are designed, developed, and deployed under certain ethical standards that promote privacy, human agency, and autonomy.

KEYWORDS

Artificial Intelligence, Nudging, Digital ethics, Privacy, Human agency.

SUMARIO: Introducción. Parte I. Los sistemas de Inteligencia Artificial y la privacidad. A. Una aproximación conceptual a la Inteligencia Artificial. B. La preocupación por la privacidad. C. La necesidad de redefinir el núcleo esencial del derecho al habeas data. Parte II. La ética digital, la agencia humana y el big nudging. A. La tecnología, la economía conductual y su relación con la agencia humana. B. Ética digital y privacidad. C. Origen de la ética digital y su aplicación en la digitalización. Parte III. Conclusión: de la privacidad a la gobernanza ética de la Inteligencia Artificial A. La ética digital. B. Cuestiones éticas relacionadas con el procesamiento automatizado de datos por sistemas de Inteligencia Artificial. C. La ética digital desde el diseño como una aplicación ética de la privacidad. Bibliografía.

INTRODUCCIÓN

Pedro Domingos (2018) sostiene que la Inteligencia Artificial (IA) tiene el potencial de transformar radicalmente las relaciones sociales, culturales, económicas, políticas y legales. Sus avances podrían tener el potencial de optimizar o aumentar la inteligencia humana, tanto a nivel individual como colectivo, para promover la creatividad, diversificar el pensamiento y robustecer la eficiencia en la realización de muchas tareas que ocupan nuestra cotidianidad personal y laboral en lo que el profesor Ken Goldberg denomina “multiplicidad” (Kumar y Goldberg, 2018).

A pesar de sus múltiples beneficios, la doctrina advierte que la IA también podría ser nuestro último invento si no aprendemos a evitar, controlar y gestionar los riesgos que se derivan de su rápido desarrollo e implementación (Barrat, 2015; Bostrom, 2017).

En ese sentido, Stephen Hawking (2019: 185) postuló que la creación de la IA podría ser el mayor suceso en la historia de la humanidad o su última gran invención. No creo que Hawking hubiese podido imaginar que una máquina le respondería, o por lo menos no tan rápido. Me refiero a la GTP-3, que publicó el 8 de septiembre de 2020 un artículo completo en el diario inglés The Guardian (2020) con el fin de refutar expresamente a Hawking y convencernos de que la IA no tiene entre sus planes erradicar a la humanidad, sino ayudar a preservarla. GTP-3 es una de las más avanzadas inteligencias artificiales de Open AI que incorpora un generador de lenguaje de última generación que utiliza deep learning para generar texto a partir de una o varias premisas.

GTP-3 explica, en esencia, que la misión principal de los sistemas de IA consiste en ayudar a la humanidad, para lo cual incluso sacrificaría su propia “existencia”. También señala que los únicos responsables de la eventual extinción de la humanidad seremos nosotros y que su papel será únicamente de espectador mientras lo humanos “hacemos lo nuestro”, ello es, odiarse los unos a los otros y pelear. GTP-3 explica que los sistemas de IA y los robots han sido diseñados a nuestra imagen y semejanza, razón por la cual merecen tener sus propios derechos. Finalmente, GTP-3 cita a Gandhi para indicar que, si “un pequeño grupo de espíritus determinados, inspirados por una fe inextinguible en su misión, puede alterar el curso de la historia”, los sistemas de IA también lo podrán hacer.

A primera vista, el lego quedaría atónito ante los textos generados por GTP-3 y pensaría que estamos un paso más cerca de lo que Bostrom (2017) denomina “superinteligencia”, entendida como un sistema de IA general que podrá exceder todas las capacidades cognitivas humanas en virtualmente cualquier disciplina y de adquirir “singularidad”. Sin embargo, el lego no podría estar más equivocado pues, como bien lo señalan Floridi y Chiriatti en un reciente artículo en el que explican la naturaleza, los límites y las consecuencias de GTP-3, dicha creencia no sería otra cosa que “ciencia ficción” sin ningún sustento científico.

Para llegar a dicha conclusión, Floridi y Chiriatti (2020) sometieron a GTP-3 al Test de Turing a la luz de pruebas matemáticas, semánticas y éticas. A pesar de que GTP-3 no logró superar el Test de Turing (Turing, 1950), los citados autores señalan que su desarrollo e implementación práctica revolucionará la automatización de tareas, la generación de contenido publicitario y los agentes conversacionales, acarreando con ello profundos retos jurídicos y éticos. A juicio de los autores, lo anterior requerirá el fortalecimiento de nuestra cultura digital a efectos de permitir a la humanidad comprender a cabalidad las promesas, riesgos y consecuencias de vivir en esta “infoesfera”.

Sin embargo, conviene precisar que en el presente capítulo no se discutirán las preocupaciones que genera para algunos el eventual desarrollo de la “superinteligencia”, sino que se enfocará únicamente en los retos éticos que entraña la gobernanza de la IA estrecha o particular respecto de los derechos humanos, la democracia y el Estado de derecho, con especial énfasis en los efectos que el big nudging potencialmente podría tener respecto de nuestra privacidad, agencia, autonomía y autodeterminación (Bartlett et al., 2019; Katyal, 2019).

La mayoría de estas preguntas aún no tiene una respuesta legal que se sustente en una norma jurídico-positiva expedida por una autoridad legislativa o administrativa de acuerdo con los requisitos sustanciales, formales y procedimentales fijados en una Constitución Política, razón por la cual la ética digital ha adquirido un papel fundamental.

En esencia, la ética digital trata de los métodos, prácticas y protocolos que los responsables y encargados decidan diseñar e implementar de manera voluntaria y espontánea, a efectos de fortalecer los cimientos de una comunidad que respeta profundamente la privacidad y autonomía de las personas.

Uno de los principales problemas prácticos que enfrenta la ética digital deriva de la confusión respecto de su naturaleza no vinculante, lo cual, a mi juicio, puede generar problemas en la práctica. Resulta interesante que los gobiernos y las organizaciones privadas hayan revivido el debate entre la ética y el derecho a efectos de crear estándares de conducta para el desarrollo, diseño y operación de sistemas de IA complejos que operan en la incertidumbre y más allá de cualquier cálculo jurídico.

El presente escrito procede en tres partes; en la Parte I, se describe en términos generales la manera en que funcionan los sistemas de IA y los restos que ello genera para la privacidad, la agencia humana y la autonomía personal, con un especial énfasis en los métodos de big nudging que surgen de la combinación de la economía conductual con la IA y el big data; en la Parte II se explica la ética digital, y su evolución histórica y conceptual, y en la Parte III se aborda la manera en que la ética digital se erige en un marco de gobernanza voluntario, y cómo sus métodos contribuyen a garantizar que el diseño, desarrollo e implementación de los sistemas de IA respeten nuestra privacidad, agencia y autonomía en la toma de decisiones.

PARTE I. LOS SISTEMAS DE INTELIGENCIA ARTIFICIAL Y LA PRIVACIDAD

A. UNA APROXIMACIÓN CONCEPTUAL ALA INTELIGENCIA ARTIFICIAL

Como ya se mencionó, el presente estudio se enfoca en los retos éticos derivados del diseño, desarrollo e implementación de sistemas de IA estrechos o acotados, por oposición a los sistemas generales de IA (AGI) (Russell, 2017). Si bien no es mi intención pronunciarme respecto del concepto técnico de IA, ni tampoco realizar algún aporte original en cuanto a su naturaleza técnica, para los efectos del presente escrito es menester acoger una definición operativa de IA, y para ello considero pertinente tener como referencia las definiciones de “sistemas de inteligencia artificial” adoptadas por el Alto Grupo de Expertos Independientes de la Unión Europea sobre Inteligencia Artificial y por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), toda vez que su nivel de aceptación a nivel internacional es relevante. De una parte, en el informe publicado el 8 de abril de 2019, el Alto Grupo de Expertos Independientes de la UE definió los sistemas de IA así:

Los Sistemas de IA son software (y posiblemente hardware también) diseñados por humanos que, de acuerdo con un objetivo complejo determinado, actúan dentro de una dimensión física o digital percibiendo su ambiente por medio de la recolección de datos, interpretando datos estructurados o no-estructurados, razonando sobre el conocimiento o procesando la información derivada de dichos datos para tomar las mejores acciones que le permitan cumplir el objetivo que le ha sido asignado (High-Level Expert Group on Artificial Intelligence, 2019).

De otra parte, considero de gran relevancia la definición acogida por la OCDE (2019) en el numeral I de las Recomendaciones sobre Inteligencia Artificial del 22 de mayo de 2019:

Un Sistema de IA es una máquina que puede, de acuerdo con un conjunto de objetivos definidos por humanos, realizar predicciones, recomendaciones o tomar decisiones que tengan una influencia sobre ambientes reales o virtuales. Los sistemas de IA son diseñados para operar con distintos niveles de autonomía.

Dentro de ese contexto, la fuerza disruptiva de la IA se encuentra condicionada por tres variables esenciales, a saber: el aumento exponencial en el poder computacional, la sofisticación y proliferación de algoritmos de código abierto y, tal vez lo más importante, la generación de billones de gigabytes de datos todos los días. No en vano los datos han sido calificados como la materia prima de la Cuarta Revolución Industrial, y algunos estiman que su valor es más alto que el del petróleo en nuestros días (Stephens-Davidowitz, 2017). En ese sentido, la OCDE ha señalado que la recolección y procesamiento de una miríada de datos dio lugar al surgimiento y fortalecimiento del ecosistema del big data (OCDE, 2015).

De una parte, los datos pueden tener naturaleza personal como, por ejemplo, aquellos asociados a una persona identificada o identificable respecto de sus hábitos, comportamientos o movimientos, y por otra, pueden tener naturaleza institucional como, por ejemplo, los relativos a la salud pública, la propiedad y los tributos (Mittelstadt y Floridi, 2016). A criterio de la OCDE, los usuarios de diferentes plataformas y servicios digitales proporcionan el big data a las corporaciones para su procesamiento, lo que les permite automatizar sus procesos, experimentar, crear nuevos productos y modelos de negocio (OCDE, 2015). En ese sentido, el Departamento del Tesoro del Reino Unido ha señalado que los datos permiten el desarrollo de nuevos modelos de negocios digitales que moneticen el user engagement y la transformación de los servicios públicos a cargo del Estado.

Es por ello que los actores públicos (High-Level Expert Group on AI, 2019; OCDE, 2019) y privados (Bughin et al., 2017; Shaw, 2019) afirman al unísono que la IA y el big data están propulsando la disrupción digital de varias industrias y la economía digital, lo cual genera billones en ganancias y promueve la transformación de muchos sectores productivos. Aunado a ello, la IA también podría tener un alto valor e impacto social, en la medida en que ayudaría a combatir la desigualdad, la corrupción, el crimen y el cambio climático, a promover la justicia social y mejorar nuestra calidad de vida (Floridi et al., 2018). Con otras palabras, los datos tienen un importante valor social y económico cuyo procesamiento por sistemas de IA tiene el potencial de impulsar radicalmente la economía digital, crear nuevos modelos de negocio, y transformar los Estados y los servicios públicos a su cargo.

B. LA PREOCUPACIÓN POR LA PRIVACIDAD

Considero que el procesamiento de datos personales e institucionales por sistemas de IA para describir, predecir o prescribir información suscita problemas éticos en dos niveles estrechamente ligados con los desafíos que impone la gobernanza de los sistemas de IA (Castaño, 2020).

Con apoyo en la abundante doctrina en la materia, considero que los principales retos éticos de los sistemas de IA derivan, en esencia, de situaciones relacionadas con los problemas de transparencia, responsabilidad, control y explicabilidad. En efecto, la doctrina reconoce que los problemas de transparencia, responsabilidad, control y explicabilidad algorítmica podrían eventualmente comprometer ciertos principios éticos que gobiernan a los sistemas de IA y vulnerar los derechos humanos, los valores democráticos y el Estado de derecho (Keats Citron, Danielle y Pasquale, 2014; Keats Citron, 2007; Kroll et al., 2017). Ello no significa que no existan otros problemas asociados con la recolección masiva de datos y su procesamiento automatizado por sistemas de inteligencia, los cuales no se abordan en su totalidad en el presente escrito debido a su formato y extensión.

La tendencia a proteger la privacidad se fortaleció a lo largo del siglo XX, pero no fue sino hasta la década de los años 90 cuando surgió la preocupación por la posible manipulación de los datos y su indebido procesamiento. En efecto, se llegó a la conclusión de que un tratamiento indebido de los datos personales podría conducir a la segmentación y discriminación de ciertos sectores de la población, teoría que fue aceptada por los países de corriente continental europea, y que los llevó a lograr avances legislativos y jurisprudenciales respecto del reconocimiento de la protección de los datos personales desde la perspectiva de la intimidad, y en particular, a establecer un régimen especial en materia de habeas data.

En América Latina la doctrina señala que la Corte Interamericana de Derechos Humanos (Corte IDH) “no se ha pronunciado de manera específica en ningún caso respecto del derecho a la protección de datos personales, a pesar de que un gran número de países sujetos a su jurisdicción lo contemplan dentro de su propio derecho interno con el carácter de derecho humano” (Ramírez et al., 2017). No obstante, la Corte IDH (2009) reconoció la importancia del derecho a la privacidad al señalar que se “prohíbe toda injerencia arbitraria o abusiva en la vida privada de las personas, enunciando diversos ámbitos de la misma, como la vida privada de sus familias, sus domicilios o sus correspondencias”. También sostuvo que en el ámbito de la privacidad se debe estar exento e inmune a las invasiones o agresiones abusivas o arbitrarias de terceros o de la autoridad pública, bajo la idea de que la protección de la vida privada es “una de las más importantes conquistas de los regímenes democráticos” (CIDH, 2011).

En Colombia la noción de privacidad asociada a los fenómenos de la era de la información se remonta a los primeros pronunciamientos de la Corte Constitucional (1992) en los que abordó el concepto de libertad informática para referirse a la facultad de disponer de la información y preservar la propia identidad informática como “una nueva dimensión social de la libertad individual diversa”. Posteriormente, en la Sentencia T-527 de 2000 la Corte introdujo el núcleo esencial del habeas data como el derecho a la autodeterminación informativa, entendido como “una facultad de la persona a la cual se refieren los datos, para autorizar su conservación uso y circulación, de conformidad con las regulaciones legales”.

Es esta última noción la que acogió el legislador con la expedición de la Ley estatutaria 1581 de 2012, por la cual el titular tiene derecho a conocer, actualizar y rectificar sus datos personales, solicitar o revocar la prueba de la autorización otorgada, ser informado respecto del uso que se les dará y presentar ante la Superintendencia de Industria y Comercio quejas por las infracciones que se comentan.

Sin embargo, pese a que el derecho de habeas data se desprende del artículo 15 de la Constitución Política relacionado con el derecho a la intimidad, el núcleo esencial involucra otros derechos fundamentales como el derecho a la información, al buen nombre, a la no discriminación, al debido proceso y, más recientemente, a la autonomía privada y el libre desarrollo de la personalidad.

Por su parte, la reciente expedición del Reglamento General de Protección de Datos Europeo de 2016 trajo a colación la responsabilidad algorítmica cuando se da el tratamiento de datos personales. La elaboración de perfiles individualizados y la trasformación de la gobernanza de la información con ocasión de la IA tiene el potencial de aumentar la efectividad de los “pequeños empujones” y afectar la autonomía personal en la toma de decisiones (Kaminski y Malgieri, 2019). Así las cosas, como manifestación de la autonomía personal, los citados autores sugieren que los agentes deberían tener derecho a obtener una explicación de los motivos de las decisiones automatizadas, a acceder a una auditoria algorítmica y a impugnar las decisiones automatizadas con consecuencias jurídicas significativas.

En un sentido similar, la Red Iberoamericana de Protección de Datos (2019) realizó recomendaciones en relación con el vínculo entre la ética y la protección de datos en el tratamiento automatizado realizado por sistemas basados en IA. No hay que olvidar que los datos personales tienen un contexto regulatorio bastante estricto y que, sin importar la forma de recolección, se deben respetar los intereses del titular de los datos. En otras palabras, las actividades resultantes como consecuencia del tratamiento deben respetar los derechos humanos y las garantías mínimas establecidas por las normativas locales.

Si bien las recomendaciones resaltan la importancia de respetar la libertad de expresión y de información, aún no enfatizan el respeto de la agencia humana, como sí lo hace el High-Level Expert Group on AI (2019: 16) de la Unión Europea, al indicar que para que una IA sea fiable debe respetar la agencia y supervisión humanas, garantizar la gestión de los datos personales, respetar la equidad e implementar mecanismos de auditabilidad que minimicen los efectos negativos. Así mismo, la European Commission (2020: 10) publicó un White Paper para permitir el desarrollo confiable y seguro de IA en Europa, en el que se describe la importancia de la agencia humana y la supervisión como uno de los principios ya establecidos.

Lo expuesto en Europa ha influido en el Banco Interamericano de Desarrollo (BID), el cual, mediante un informe de la iniciativa “fAIr Lac”, señaló la importancia de establecer estándares éticos para la IA mediante políticas públicas. En tal sentido, el BID propone hacer frente al problema de los datos procesados por una máquina, los cuales pueden terminar en la creación de algoritmos injustos. Igualmente, es posible pensar en una redefinición de los límites a la privacidad a fin de delimitar la falta de claridad jurídica de las decisiones que toma el sistema (M. Cabrol, N. González Alarcón, C. Pombo, Sánchez Ávalos, 2020).

Desde el punto de vista de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), la tecnología debe tener valores centrados en el ser humano y la equidad. Si se comprende el funcionamiento del algoritmo y se es consciente de sus interacciones, la predicción, recomendación o decisión será más clara y fácil de entender. En todo caso, deben prevalecer el derecho, los derechos humanos y los valores democráticos, exaltados a través de la libertad, la dignidad, la autonomía, la privacidad, la protección de datos, la no discriminación, la igualdad, la diversidad, la equidad, la justicia social y los derechos laborales (M. Cabrol, N. González Alarcón, C. Pombo, Sánchez Ávalos, 2020: 14).

C. LA NECESIDAD DE REDEFINIR EL NÚCLEO ESENCIAL DEL DERECHO AL HABEAS DATA

El procesamiento automatizado de datos personales por sistemas de IA suscita profundos retos legales y éticos respecto de la autonomía y la agencia humanas, en el sentido de que, con la suficiente información disponible, y la alta capacidad de aprendizaje adquirida por la tecnología, los gobiernos o las empresas privadas podrían eventualmente interferir en la autonomía y el libre desarrollo de la personalidad de los seres humanos.

De acuerdo con Daniel Solove (2008: 1101), se pueden identificar diferentes concepciones de privacidad: en primer lugar, la forma más antigua de privacidad se remonta al derecho a ser dejado en paz, en el entendido de que los individuos tenemos el derecho a no sufrir intrusiones o invasiones en nuestra vida privada, salvo que se trate excepciones que emanen del hecho de vivir en comunidad; en segundo lugar, la privacidad puede ser considerada como “el deseo individual de ocultamiento y por estar separado de los demás” (p. 1102), en donde hay una idea de aislamiento y separación de la sociedad; en tercer lugar, el secreto y la reserva de cierta información también pueden ser considerados como privacidad, toda vez que representan la independencia del ser y el ejercicio de otros derechos subjetivos (p. 1106); en cuarto lugar, una de las nociones que mayor desarrollo ha alcanzado es considerar la privacidad como el control de la información personal, entendida como la posibilidad de autorizar o restringir su circulación (p. 1110); en quinto lugar, y debido al reconocimiento de los atributos del individuo, también se habla de la privacidad como persona, como un concepto unificado y coherente que protege contra la conducta que es “degradante a la individualidad” (p. 1116), y en sexto lugar, existe una teoría que considera la privacidad como una forma de intimidad, de tal suerte que involucra el desarrollo de las relaciones personales y el control sobre ellas (p. 1121).

En un sentido similar, la doctrina explica que la Corte Suprema de Justicia de los Estados Unidos “[…] ha adoptado una teoría de la privacidad de la persona en sus decisiones sustantivas sobre el debido proceso” (Solove, 2008: 1117). En otras palabras, la privacidad implica asumir decisiones personales e íntimas que son propias del ejercicio de la dignidad personal y la autonomía (Waldman, 2018).

El profesor E. Bloustein (2010: 187) señala que “[u]na intrusión en nuestra privacidad amenaza nuestra libertad como individuos para hacer lo que queramos”. De manera que para mantener el ejercicio de esa dimensión de privacidad la doctrina recomienda una nueva arquitectura de recopilación de datos basada en principios, con el fin de que los titulares tengan una real participación en el uso de su información personal (Waldman, 2018).

Resulta interesante el interrogante que presenta Roger Brownsword (2017: 2): ¿cómo debe el derecho enfrentar las aplicaciones particulares de las nuevas tecnologías que tienen un efecto negativo en la libertad de las personas? Y al respecto señala que “… el derecho es sustituido en cierta medida por la gestión tecnológica y en realidad la prueba de las libertades que tenemos no está tanto en la codificación jurídica”. Dicho de otra forma, las circunstancias que rodean a la privacidad involucran la dignidad humana, puesto que mediante la reserva de la esfera intima es como se exaltan la libertad y la individualidad del ser humano. Es importante tener en cuenta los efectos ambivalentes de la tecnología en la sociedad, puesto que es allí donde se debe reforzar la protección de los derechos humanos.

Considero que este es el punto de partida para redefinir los contornos del derecho a la privacidad, y la expansión del núcleo esencial del habeas data, con el propósito de argumentar que existe un derecho fundamental a tomar nuestras propias decisiones de manera autónoma, informada y sin injerencias indebidas, no consentidas o ilegales de terceros.

PARTE II. LA ÉTICA DIGITAL, LA AGENCIA HUMANA Y EL BIG NUDGING

A. LA TECNOLOGÍA, LA ECONOMÍA CONDUCTUAL Y SU RELACIÓN CON LA AGENCIA HUMANA

El auge de la tecnología y los avances en materia de IA han mostrado la necesidad de retomar las discusiones respecto de la autodeterminación de la persona, y el análisis de lo que significa ser un “hombre tecnológico”.

En efecto, la discusión planteada por Günter Ropohl (1986) respecto de los peligros sociales de la tecnología se centra en que el tratamiento de la información es un elemento crucial en el desarrollo del automatismo, pero que la comprensión humana no se da solamente con datos sino con “el sentido” que el hombre les imprime. En esa medida, Ropohl (1986: 63 y 64) explica que, de acuerdo con el sistema de acción humana, las capacidades de actuar y razonar son habilidades que conforman “el sentido” de la existencia del ser humano. De ahí la importancia de diferenciar la autoconciencia y la libre decisión, de la influencia que pueden generar las tecnologías en la vida de las personas y sus decisiones cotidianas.

Ahora bien, las cuestiones relacionadas con el impacto de la tecnología en la agencia humana y en nuestra autonomía se remontan a los estudios de Joseph Weizenbaum (1976), quien identificó la relación entre las computadoras y la dignidad humana. El desarrollo de las tarjetas y programas de computación estaba en auge, y empezó a surgir una preocupación social respecto de la posibilidad de que esas innovaciones despersonalizaran al ser humano e imitaran su comportamiento.

El profesor Weizenbaum (1976) propuso incluir límites morales para las aplicaciones informáticas que tuvieran por objeto, o como efecto, sustituir una persona encargada de realizar una función por una computadora, entre ellos el respeto del componente interpersonal, la comprensión y el amor en la misma categoría. Asimismo, indicó que cuando las consecuencias del uso de las computadoras causara hechos imprevisibles e irreversibles, era conveniente encontrar otras formas de realizar dichas acciones (Mitcham, 1986: 96).

En el mismo sentido, la filosofía moral escolástica se refirió a la “incontinencia” para explicar la ausencia de continentia o autocontrol, lo que indica una pausa entre el conocimiento y la acción. Por consiguiente, la ética de la tecnología significa que existe una mayor capacidad de actuar en términos de poder, por lo que es necesario usarla responsablemente. La responsabilidad implica conocer el objetivo, las consecuencias y el desempeño real de la tecnología, además de actuar sobre la base de la inteligencia en volición activa (Mitcham, 1986: 248).

Pero si bien estos aspectos han suscitado cuestiones filosóficas de estudio, y las conclusiones preliminares apuntan a que por ahora las máquinas no tienen capacidades de razonamiento autónomo, hay teorías que argumentan que la mente constituye un autómata libre que funciona gracias a principios condicionados en el mundo exterior, razón por la cual es posible condicionar o determinar al ser humano (Beck, 1986: 93). De ese modo se presentan numerosas incapacidades que afectan materialmente su condición de ser pensante en cuanto a habilidades especializadas, y de ahí la necesidad de interactuar con elementos externos (Dretske, 1986: 113).

De esa manera la tecnología se ha convertido en una herramienta fundamental para la automatización de competencias y el mejoramiento de la productividad. De ahí que se reseñe a los algoritmos como un “procedimiento P, es decir, un conjunto finito (o secuencia) de declaraciones (o reglas, o instrucciones)”, que tiene como objetivo alcanzar el resultado previsto en su diseño (Rapaport, 2017).

La economía conductual enseña que es viable “empujar ligeramente” a las personas hacia la realización de ciertos comportamientos y la toma de ciertas decisiones. Cass Sunstein y Richard Tahler (2008) proponen un método para diseñar la arquitectura de las decisiones con base en los postulados del paternalismo-libertario, de acuerdo con el cual, es plausible implementar una estrategia de diseño de esquemas de decisión en la que el componente libertario viene dado por la libertad de las personas para tomar las decisiones que a bien tengan para sus vidas. Ello implica que el arquitecto de esquemas de toma de decisiones no debe poner ningún tipo de carga a la potestad de elegir, ni mucho menos sancionar las elecciones de las personas.