Facebook Pixel
Searching...
Español
EnglishEnglish
EspañolSpanish
简体中文Chinese
FrançaisFrench
DeutschGerman
日本語Japanese
PortuguêsPortuguese
ItalianoItalian
한국어Korean
РусскийRussian
NederlandsDutch
العربيةArabic
PolskiPolish
हिन्दीHindi
Tiếng ViệtVietnamese
SvenskaSwedish
ΕλληνικάGreek
TürkçeTurkish
ไทยThai
ČeštinaCzech
RomânăRomanian
MagyarHungarian
УкраїнськаUkrainian
Bahasa IndonesiaIndonesian
DanskDanish
SuomiFinnish
БългарскиBulgarian
עבריתHebrew
NorskNorwegian
HrvatskiCroatian
CatalàCatalan
SlovenčinaSlovak
LietuviųLithuanian
SlovenščinaSlovenian
СрпскиSerbian
EestiEstonian
LatviešuLatvian
فارسیPersian
മലയാളംMalayalam
தமிழ்Tamil
اردوUrdu
Atlas of AI

Atlas of AI

Power, Politics, and the Planetary Costs of Artificial Intelligence
por Kate Crawford 2020 288 páginas
3.96
2k+ calificaciones
Escuchar
Listen to Summary

Puntos clave

1. La Base Material de la IA: La Tierra como Industria Extractiva

Los medios computacionales ahora participan en procesos geológicos (y climatológicos), desde la transformación de los materiales de la tierra en infraestructuras y dispositivos hasta la alimentación de estos nuevos sistemas con reservas de petróleo y gas.

Dependencia de la IA en los recursos. La inteligencia artificial no es un concepto etéreo, sino una industria profundamente material que depende de la extracción de los recursos de la Tierra. Desde las minas de litio en Nevada hasta los depósitos de minerales de tierras raras en Mongolia Interior, la creación de sistemas de IA requiere una vasta cadena de suministro de minerales, energía y materiales. Esta demanda alimenta prácticas mineras destructivas para el medio ambiente, a menudo pasadas por alto en las discusiones sobre el progreso tecnológico.

Impacto ambiental. La demanda de recursos por parte del sector tecnológico contribuye significativamente a la degradación ambiental. La extracción de minerales contamina las fuentes de agua, destruye bosques y desplaza comunidades. Además, la naturaleza intensiva en energía de la IA, particularmente en el entrenamiento de grandes modelos, contribuye a una creciente huella de carbono, rivalizando con la de la industria de la aviación.

Necesidad de un cambio de perspectiva. Para entender el verdadero costo de la IA, debemos ir más allá de las promesas abstractas del avance tecnológico y considerar sus consecuencias materiales. Esto requiere reconocer los costos ambientales y humanos asociados con la extracción de recursos, el consumo de energía y las cadenas de suministro globales que apoyan los sistemas de IA.

2. El Costo Humano: Explotación Laboral en los Sistemas de IA

Coordinar las acciones de los humanos con los movimientos repetitivos de los robots y la maquinaria de línea siempre ha implicado un control de los cuerpos en el espacio y el tiempo.

Dependencia de la IA en el trabajo humano. A pesar de la narrativa de la automatización, los sistemas de IA dependen en gran medida del trabajo humano, a menudo oculto y mal remunerado. Esto incluye a trabajadores digitales etiquetando datos, empleados de almacenes de Amazon cumpliendo pedidos y moderadores de contenido filtrando contenido dañino. Estos trabajadores son esenciales para el funcionamiento de los sistemas de IA, sin embargo, sus contribuciones a menudo son subestimadas y sus condiciones laborales son explotadoras.

Tiempo y control. La gestión del tiempo es central para la explotación laboral en los sistemas de IA. Los trabajadores están sujetos a una vigilancia constante y a una evaluación algorítmica, con cada una de sus acciones rastreadas y medidas para maximizar la eficiencia. Esto crea un ambiente de trabajo estresante y deshumanizante, donde los trabajadores son tratados como meros apéndices de la máquina.

Necesidad de solidaridad entre trabajadores. Para abordar la explotación laboral en los sistemas de IA, los trabajadores deben organizarse y exigir mejores condiciones laborales, salarios justos y un mayor control sobre su tiempo y trabajo. Esto requiere construir solidaridad entre diferentes sectores de la industria de la IA, desde mineros hasta ingenieros, y desafiar las estructuras de poder que perpetúan la explotación.

3. Datos como Infraestructura: La Eliminación del Contexto y el Consentimiento

Todo material digital de acceso público, incluyendo datos que son personales o potencialmente dañinos, está abierto a ser recolectado para conjuntos de datos de entrenamiento que se utilizan para producir modelos de IA.

Extracción de datos. La industria de la IA depende de la recolección masiva de datos, a menudo sin consentimiento o consideración por la privacidad. Esto incluye información personal, imágenes y textos extraídos de internet y utilizados para entrenar modelos de IA. Esta práctica trata los datos como un recurso gratuito, ignorando las implicaciones éticas y sociales de recolectar y utilizar la información de las personas sin su conocimiento o permiso.

De la imagen a la infraestructura. La transformación de imágenes en datos les despoja de su contexto y significado. Fotografías policiales, selfies y fotos personales se reducen a puntos de datos, utilizados para entrenar sistemas de reconocimiento facial y otros modelos de IA. Esta eliminación del contexto puede llevar a resultados sesgados y discriminatorios, ya que los sistemas de IA aprenden a asociar ciertas características con estereotipos negativos.

Preocupaciones éticas. Las prácticas actuales de recolección y uso de datos en la IA plantean profundas preocupaciones éticas. Debemos ir más allá de la idea de que los datos son un recurso neutral y reconocer las dinámicas de poder inherentes a su recolección, etiquetado y uso. Esto requiere desarrollar directrices éticas y regulaciones que protejan la privacidad de las personas y prevengan el uso indebido de sus datos.

4. Clasificación como Poder: Codificando el Sesgo en los Sistemas de IA

Al observar cómo se realizan las clasificaciones, vemos cómo los esquemas técnicos imponen jerarquías y amplifican la inequidad.

Clasificación como un acto político. Los sistemas de IA dependen de la clasificación para dar sentido al mundo. Sin embargo, las categorías utilizadas para clasificar datos no son neutrales u objetivas, sino que reflejan los sesgos y suposiciones de sus creadores. Estos sesgos pueden ser codificados en los sistemas de IA, llevando a resultados discriminatorios.

El problema del sesgo. Se ha demostrado que los sistemas de IA exhiben sesgo en una variedad de dominios, desde el reconocimiento facial hasta la justicia penal. Estos sesgos a menudo reflejan patrones históricos de discriminación, perpetuando y amplificando las desigualdades existentes. Por ejemplo, los sistemas de reconocimiento facial pueden ser menos precisos para personas con piel más oscura, lo que lleva a identificaciones erróneas y arrestos injustos.

Más allá de los debates sobre el sesgo. Para abordar el problema del sesgo en la IA, debemos ir más allá de soluciones técnicas y abordar las estructuras sociales y políticas subyacentes que dan forma a los datos y algoritmos utilizados para entrenar los sistemas de IA. Esto requiere desafiar las dinámicas de poder que perpetúan la desigualdad y promover enfoques más equitativos e inclusivos en el desarrollo de la IA.

5. Reconocimiento Afectivo: La Ciencia Problemática de Leer Emociones

La solución al enigma de Clever Hans, escribió Pfungst, fue la dirección inconsciente de los interrogadores del caballo.

La afirmación de emociones universales. Los sistemas de reconocimiento afectivo se basan en la idea de que las emociones son universales y pueden ser detectadas de manera confiable a partir de expresiones faciales. Sin embargo, esta afirmación es muy controvertida, con muchos investigadores argumentando que las emociones son culturalmente variables y dependientes del contexto.

La influencia de Paul Ekman. El trabajo del psicólogo Paul Ekman ha sido influyente en la configuración del campo del reconocimiento afectivo. La investigación de Ekman, que comenzó en la década de 1960, afirmaba identificar un conjunto de emociones básicas que se expresan y reconocen universalmente. Sin embargo, sus métodos y hallazgos han sido ampliamente criticados por su falta de rigor científico.

Preocupaciones éticas. A pesar de las dudas científicas en torno al reconocimiento afectivo, estas herramientas se están implementando rápidamente en una variedad de contextos de alto riesgo, desde la contratación hasta la vigilancia. Esto plantea serias preocupaciones éticas, ya que las personas pueden ser juzgadas y discriminadas en función de evaluaciones inexactas e ineficaces de su estado emocional.

6. La IA como Herramienta del Poder Estatal: Vigilancia y Control

El pasado y presente militar de la inteligencia artificial han moldeado las prácticas de vigilancia, extracción de datos y evaluación de riesgos que vemos hoy.

Orígenes militares de la IA. El desarrollo de la IA ha estado fuertemente influenciado por la financiación y prioridades militares. Esto ha moldeado el enfoque del campo en la vigilancia, la extracción de datos y la evaluación de riesgos, con poco respeto por las implicaciones éticas y sociales.

El archivo de Snowden. El archivo de Snowden revela la medida en que las agencias de inteligencia han utilizado la IA para recolectar y analizar datos a gran escala. Estas herramientas, que antes se reservaban para fines de seguridad nacional, ahora se están implementando a nivel nacional, difuminando las líneas entre la vigilancia militar y civil.

La estrategia del Tercer Offset. La estrategia del Tercer Offset del ejército de EE. UU. busca mantener su dominio en IA asociándose con el sector tecnológico. Esto ha llevado a una relación estrecha entre el ejército y Silicon Valley, con empresas tecnológicas proporcionando herramientas y experiencia en IA al Departamento de Defensa.

7. Las Grandes Casas de la IA: Centralizando el Poder y Ampliando las Asimetrías

Estas políticas son impulsadas por las Grandes Casas de la IA, que consisten en la media docena de empresas que dominan la computación planetaria a gran escala.

Concentración de poder. La industria de la IA está dominada por un pequeño número de poderosas corporaciones tecnológicas. Estas empresas controlan vastas cantidades de datos, recursos y experiencia, dándoles una ventaja significativa en la configuración del desarrollo y despliegue de sistemas de IA.

Ampliación de desigualdades. La concentración de poder en manos de unos pocos gigantes tecnológicos agrava las desigualdades existentes. Los sistemas de IA a menudo están diseñados para servir a los intereses de estas empresas, ampliando aún más la brecha entre ricos y pobres, poderosos y marginados.

Necesidad de regulación. Para abordar la concentración de poder en la industria de la IA, necesitamos regulaciones más estrictas que promuevan la competencia, protejan la privacidad y aseguren que los sistemas de IA se utilicen de manera que beneficien a la sociedad en su conjunto. Esto requiere desafiar el dominio de los gigantes tecnológicos y promover formas de gobernanza de la IA más democráticas y responsables.

8. Desafiando las Lógicas: Hacia Movimientos Interconectados por la Justicia

A medida que las condiciones en la Tierra cambian, los llamados a la protección de datos, derechos laborales, justicia climática y equidad racial deben ser escuchados juntos.

Movimientos interconectados. Abordar los problemas fundamentales de la IA requiere conectar cuestiones de poder y justicia. Esto incluye la protección de datos, derechos laborales, justicia climática y equidad racial. Al trabajar juntos, estos movimientos pueden desafiar las estructuras de poder que la IA actualmente refuerza.

Política de rechazo. Debemos rechazar la idea de que la IA es inevitable y que no tenemos más opción que aceptar sus consecuencias. Esto requiere desafiar las narrativas del determinismo tecnológico y exigir formas de gobernanza de la IA más democráticas y responsables.

Una visión diferente. Al conectar cuestiones de poder y justicia, podemos crear una visión diferente para la IA, una que priorice el bienestar humano, la sostenibilidad ambiental y la equidad social. Esto requiere desafiar las lógicas extractivas de la IA y construir un futuro más justo y sostenible para todos.

Última actualización:

Reseñas

3.96 de 5
Promedio de 2k+ calificaciones de Goodreads y Amazon.

Atlas de la IA recibe críticas mixtas; algunos elogian su examen crítico de los impactos sociales y ambientales de la inteligencia artificial, mientras que otros critican su escritura repetitiva y la falta de soluciones. Los lectores valoran la exploración de los costos materiales de la IA, la explotación laboral y las preocupaciones éticas que plantea. Sin embargo, algunos lo consideran excesivamente pesimista y carente de profundidad técnica. El libro es elogiado por su enfoque integral, pero criticado por su tono académico y su ocasional falta de enfoque. A pesar de sus defectos, muchos lo consideran una lectura importante para comprender las implicaciones más amplias de la IA.

Sobre el autor

Kate Crawford es una destacada académica e investigadora en el campo de la inteligencia artificial y sus implicaciones sociales. Kate Crawford es reconocida por su enfoque interdisciplinario, que combina tecnología, ética y ciencias sociales. Ha ocupado cargos en instituciones prominentes como Microsoft Research y la Universidad de Nueva York. El trabajo de Crawford se centra en los costos ocultos y las consecuencias de los sistemas de inteligencia artificial, incluyendo su impacto ambiental, las prácticas laborales y su potencial para el sesgo y la discriminación. Ha publicado extensamente sobre estos temas y es una oradora frecuente en conferencias internacionales. La investigación de Crawford ha contribuido de manera significativa al discurso crítico en torno al desarrollo e implementación de la inteligencia artificial.

0:00
-0:00
1x
Dan
Andrew
Michelle
Lauren
Select Speed
1.0×
+
200 words per minute
Home
Library
Get App
Create a free account to unlock:
Requests: Request new book summaries
Bookmarks: Save your favorite books
History: Revisit books later
Recommendations: Get personalized suggestions
Ratings: Rate books & see your ratings
Try Full Access for 7 Days
Listen, bookmark, and more
Compare Features Free Pro
📖 Read Summaries
All summaries are free to read in 40 languages
🎧 Listen to Summaries
Listen to unlimited summaries in 40 languages
❤️ Unlimited Bookmarks
Free users are limited to 10
📜 Unlimited History
Free users are limited to 10
Risk-Free Timeline
Today: Get Instant Access
Listen to full summaries of 73,530 books. That's 12,000+ hours of audio!
Day 4: Trial Reminder
We'll send you a notification that your trial is ending soon.
Day 7: Your subscription begins
You'll be charged on Apr 26,
cancel anytime before.
Consume 2.8x More Books
2.8x more books Listening Reading
Our users love us
100,000+ readers
"...I can 10x the number of books I can read..."
"...exceptionally accurate, engaging, and beautifully presented..."
"...better than any amazon review when I'm making a book-buying decision..."
Save 62%
Yearly
$119.88 $44.99/year
$3.75/mo
Monthly
$9.99/mo
Try Free & Unlock
7 days free, then $44.99/year. Cancel anytime.
Scanner
Find a barcode to scan

Settings
General
Widget
Appearance
Loading...
Black Friday Sale 🎉
$20 off Lifetime Access
$79.99 $59.99
Upgrade Now →