Puntos clave
1. La Base Material de la IA: La Tierra como Industria Extractiva
Los medios computacionales ahora participan en procesos geológicos (y climatológicos), desde la transformación de los materiales de la tierra en infraestructuras y dispositivos hasta la alimentación de estos nuevos sistemas con reservas de petróleo y gas.
Dependencia de la IA en los recursos. La inteligencia artificial no es un concepto etéreo, sino una industria profundamente material que depende de la extracción de los recursos de la Tierra. Desde las minas de litio en Nevada hasta los depósitos de minerales de tierras raras en Mongolia Interior, la creación de sistemas de IA requiere una vasta cadena de suministro de minerales, energía y materiales. Esta demanda alimenta prácticas mineras destructivas para el medio ambiente, a menudo pasadas por alto en las discusiones sobre el progreso tecnológico.
Impacto ambiental. La demanda de recursos por parte del sector tecnológico contribuye significativamente a la degradación ambiental. La extracción de minerales contamina las fuentes de agua, destruye bosques y desplaza comunidades. Además, la naturaleza intensiva en energía de la IA, particularmente en el entrenamiento de grandes modelos, contribuye a una creciente huella de carbono, rivalizando con la de la industria de la aviación.
Necesidad de un cambio de perspectiva. Para entender el verdadero costo de la IA, debemos ir más allá de las promesas abstractas del avance tecnológico y considerar sus consecuencias materiales. Esto requiere reconocer los costos ambientales y humanos asociados con la extracción de recursos, el consumo de energía y las cadenas de suministro globales que apoyan los sistemas de IA.
2. El Costo Humano: Explotación Laboral en los Sistemas de IA
Coordinar las acciones de los humanos con los movimientos repetitivos de los robots y la maquinaria de línea siempre ha implicado un control de los cuerpos en el espacio y el tiempo.
Dependencia de la IA en el trabajo humano. A pesar de la narrativa de la automatización, los sistemas de IA dependen en gran medida del trabajo humano, a menudo oculto y mal remunerado. Esto incluye a trabajadores digitales etiquetando datos, empleados de almacenes de Amazon cumpliendo pedidos y moderadores de contenido filtrando contenido dañino. Estos trabajadores son esenciales para el funcionamiento de los sistemas de IA, sin embargo, sus contribuciones a menudo son subestimadas y sus condiciones laborales son explotadoras.
Tiempo y control. La gestión del tiempo es central para la explotación laboral en los sistemas de IA. Los trabajadores están sujetos a una vigilancia constante y a una evaluación algorítmica, con cada una de sus acciones rastreadas y medidas para maximizar la eficiencia. Esto crea un ambiente de trabajo estresante y deshumanizante, donde los trabajadores son tratados como meros apéndices de la máquina.
Necesidad de solidaridad entre trabajadores. Para abordar la explotación laboral en los sistemas de IA, los trabajadores deben organizarse y exigir mejores condiciones laborales, salarios justos y un mayor control sobre su tiempo y trabajo. Esto requiere construir solidaridad entre diferentes sectores de la industria de la IA, desde mineros hasta ingenieros, y desafiar las estructuras de poder que perpetúan la explotación.
3. Datos como Infraestructura: La Eliminación del Contexto y el Consentimiento
Todo material digital de acceso público, incluyendo datos que son personales o potencialmente dañinos, está abierto a ser recolectado para conjuntos de datos de entrenamiento que se utilizan para producir modelos de IA.
Extracción de datos. La industria de la IA depende de la recolección masiva de datos, a menudo sin consentimiento o consideración por la privacidad. Esto incluye información personal, imágenes y textos extraídos de internet y utilizados para entrenar modelos de IA. Esta práctica trata los datos como un recurso gratuito, ignorando las implicaciones éticas y sociales de recolectar y utilizar la información de las personas sin su conocimiento o permiso.
De la imagen a la infraestructura. La transformación de imágenes en datos les despoja de su contexto y significado. Fotografías policiales, selfies y fotos personales se reducen a puntos de datos, utilizados para entrenar sistemas de reconocimiento facial y otros modelos de IA. Esta eliminación del contexto puede llevar a resultados sesgados y discriminatorios, ya que los sistemas de IA aprenden a asociar ciertas características con estereotipos negativos.
Preocupaciones éticas. Las prácticas actuales de recolección y uso de datos en la IA plantean profundas preocupaciones éticas. Debemos ir más allá de la idea de que los datos son un recurso neutral y reconocer las dinámicas de poder inherentes a su recolección, etiquetado y uso. Esto requiere desarrollar directrices éticas y regulaciones que protejan la privacidad de las personas y prevengan el uso indebido de sus datos.
4. Clasificación como Poder: Codificando el Sesgo en los Sistemas de IA
Al observar cómo se realizan las clasificaciones, vemos cómo los esquemas técnicos imponen jerarquías y amplifican la inequidad.
Clasificación como un acto político. Los sistemas de IA dependen de la clasificación para dar sentido al mundo. Sin embargo, las categorías utilizadas para clasificar datos no son neutrales u objetivas, sino que reflejan los sesgos y suposiciones de sus creadores. Estos sesgos pueden ser codificados en los sistemas de IA, llevando a resultados discriminatorios.
El problema del sesgo. Se ha demostrado que los sistemas de IA exhiben sesgo en una variedad de dominios, desde el reconocimiento facial hasta la justicia penal. Estos sesgos a menudo reflejan patrones históricos de discriminación, perpetuando y amplificando las desigualdades existentes. Por ejemplo, los sistemas de reconocimiento facial pueden ser menos precisos para personas con piel más oscura, lo que lleva a identificaciones erróneas y arrestos injustos.
Más allá de los debates sobre el sesgo. Para abordar el problema del sesgo en la IA, debemos ir más allá de soluciones técnicas y abordar las estructuras sociales y políticas subyacentes que dan forma a los datos y algoritmos utilizados para entrenar los sistemas de IA. Esto requiere desafiar las dinámicas de poder que perpetúan la desigualdad y promover enfoques más equitativos e inclusivos en el desarrollo de la IA.
5. Reconocimiento Afectivo: La Ciencia Problemática de Leer Emociones
La solución al enigma de Clever Hans, escribió Pfungst, fue la dirección inconsciente de los interrogadores del caballo.
La afirmación de emociones universales. Los sistemas de reconocimiento afectivo se basan en la idea de que las emociones son universales y pueden ser detectadas de manera confiable a partir de expresiones faciales. Sin embargo, esta afirmación es muy controvertida, con muchos investigadores argumentando que las emociones son culturalmente variables y dependientes del contexto.
La influencia de Paul Ekman. El trabajo del psicólogo Paul Ekman ha sido influyente en la configuración del campo del reconocimiento afectivo. La investigación de Ekman, que comenzó en la década de 1960, afirmaba identificar un conjunto de emociones básicas que se expresan y reconocen universalmente. Sin embargo, sus métodos y hallazgos han sido ampliamente criticados por su falta de rigor científico.
Preocupaciones éticas. A pesar de las dudas científicas en torno al reconocimiento afectivo, estas herramientas se están implementando rápidamente en una variedad de contextos de alto riesgo, desde la contratación hasta la vigilancia. Esto plantea serias preocupaciones éticas, ya que las personas pueden ser juzgadas y discriminadas en función de evaluaciones inexactas e ineficaces de su estado emocional.
6. La IA como Herramienta del Poder Estatal: Vigilancia y Control
El pasado y presente militar de la inteligencia artificial han moldeado las prácticas de vigilancia, extracción de datos y evaluación de riesgos que vemos hoy.
Orígenes militares de la IA. El desarrollo de la IA ha estado fuertemente influenciado por la financiación y prioridades militares. Esto ha moldeado el enfoque del campo en la vigilancia, la extracción de datos y la evaluación de riesgos, con poco respeto por las implicaciones éticas y sociales.
El archivo de Snowden. El archivo de Snowden revela la medida en que las agencias de inteligencia han utilizado la IA para recolectar y analizar datos a gran escala. Estas herramientas, que antes se reservaban para fines de seguridad nacional, ahora se están implementando a nivel nacional, difuminando las líneas entre la vigilancia militar y civil.
La estrategia del Tercer Offset. La estrategia del Tercer Offset del ejército de EE. UU. busca mantener su dominio en IA asociándose con el sector tecnológico. Esto ha llevado a una relación estrecha entre el ejército y Silicon Valley, con empresas tecnológicas proporcionando herramientas y experiencia en IA al Departamento de Defensa.
7. Las Grandes Casas de la IA: Centralizando el Poder y Ampliando las Asimetrías
Estas políticas son impulsadas por las Grandes Casas de la IA, que consisten en la media docena de empresas que dominan la computación planetaria a gran escala.
Concentración de poder. La industria de la IA está dominada por un pequeño número de poderosas corporaciones tecnológicas. Estas empresas controlan vastas cantidades de datos, recursos y experiencia, dándoles una ventaja significativa en la configuración del desarrollo y despliegue de sistemas de IA.
Ampliación de desigualdades. La concentración de poder en manos de unos pocos gigantes tecnológicos agrava las desigualdades existentes. Los sistemas de IA a menudo están diseñados para servir a los intereses de estas empresas, ampliando aún más la brecha entre ricos y pobres, poderosos y marginados.
Necesidad de regulación. Para abordar la concentración de poder en la industria de la IA, necesitamos regulaciones más estrictas que promuevan la competencia, protejan la privacidad y aseguren que los sistemas de IA se utilicen de manera que beneficien a la sociedad en su conjunto. Esto requiere desafiar el dominio de los gigantes tecnológicos y promover formas de gobernanza de la IA más democráticas y responsables.
8. Desafiando las Lógicas: Hacia Movimientos Interconectados por la Justicia
A medida que las condiciones en la Tierra cambian, los llamados a la protección de datos, derechos laborales, justicia climática y equidad racial deben ser escuchados juntos.
Movimientos interconectados. Abordar los problemas fundamentales de la IA requiere conectar cuestiones de poder y justicia. Esto incluye la protección de datos, derechos laborales, justicia climática y equidad racial. Al trabajar juntos, estos movimientos pueden desafiar las estructuras de poder que la IA actualmente refuerza.
Política de rechazo. Debemos rechazar la idea de que la IA es inevitable y que no tenemos más opción que aceptar sus consecuencias. Esto requiere desafiar las narrativas del determinismo tecnológico y exigir formas de gobernanza de la IA más democráticas y responsables.
Una visión diferente. Al conectar cuestiones de poder y justicia, podemos crear una visión diferente para la IA, una que priorice el bienestar humano, la sostenibilidad ambiental y la equidad social. Esto requiere desafiar las lógicas extractivas de la IA y construir un futuro más justo y sostenible para todos.
Última actualización:
Reseñas
Atlas de la IA recibe críticas mixtas; algunos elogian su examen crítico de los impactos sociales y ambientales de la inteligencia artificial, mientras que otros critican su escritura repetitiva y la falta de soluciones. Los lectores valoran la exploración de los costos materiales de la IA, la explotación laboral y las preocupaciones éticas que plantea. Sin embargo, algunos lo consideran excesivamente pesimista y carente de profundidad técnica. El libro es elogiado por su enfoque integral, pero criticado por su tono académico y su ocasional falta de enfoque. A pesar de sus defectos, muchos lo consideran una lectura importante para comprender las implicaciones más amplias de la IA.
Similar Books









