top of page
Foto del escritorAlejandro Batista

Sociología, Aprendizaje Profundo e Inteligencia Artificial

Actualizado: 11 ago 2019

En sociología se hace referencia al proceso de socialización cómo aquel en el que se ve inmerso un individuo, al pertenecer a una sociedad y que al tomar contacto con los demás va aprendiendo y aprehendiendo las normas sociales que rigen la interacción en esa sociedad en un momento y tiempo determinado.

Este proceso de aprendizaje permite por un lado, que el nuevo integrante pueda formar parte y operar en la sociedad en la que ha nacido; y por otro a la sociedad, poder transmitir su cultura, particularmente aquello que está bien o se espera de las personas, y lo que está mal o no se espera de ellas.




Se trata de un proceso vital literalmente hablando, —sin contacto social un bebé recién nacido no puede sobrevivir, aun cuando se le brinde alimento y abrigo— que presenta suma importancia durante los primeros años de vida, pues allí también ocurre otro proceso paralelo, y es el de conformación de la estructura de nuestra personalidad.


De allí que esas normas o pautas que adquirimos durante esa socialización primaria suelen fijarse muy firmemente y ser difíciles de modificar con posterioridad.

Otro detalle de gran importancia es que durante este lapso la principal vía de socialización y por ende de aprendizaje es la imitación. Así cualquier controversia entre lo que “le digamos a los niños que está bien o está mal”, con lo que “realmente les mostramos con nuestras acciones”; terminará con la preeminencia de esto último.


Inteligencia Artificial y Aprendizaje Profundo.

Se trata de términos que están incorporándose cada vez más a nuestra realidad y a las diferentes actividades de la sociedad.

Posiblemente el más conocido es el de Inteligencia Artificial (IA o AI, en inglés), se trata de algoritmos que se basan en ingentes cantidades de datos y que a partir de esos datos pueden realizar tareas de manera cada vez mas eficiente; de alguna manera, aprendiendo durante el proceso.

Así un modelo neuronal puede ser entrenado para interpretar imágenes de estudios médicos y detectar signos de alguna enfermedad. Pero si aplicamos ese mismo algoritmo para identificar obras de artes, habrá que reentrenarlo y por supuesto ofrecerle un nuevo paquete de datos para analizar y así aprender.

El Aprendizaje Profundo junto al aprendizaje automático forman parte del mundo de los sistemas de inteligencia artificial, pero no toda inteligencia artificial se erige a partir de aprendizaje profundo.




Estos sistemas (cómo nosotros) funcionan con inputs o entradas y outputs o salidas, cuando entre ambas hay solo una capa intermedia estamos frente al aprendizaje automático o lineal; por el contrario el aprendizaje profundo incluye múltiples capas intermedias que se van jerarquizando en el proceso de análisis de millones de datos.

...la evidencia indica que en los procesos de aprendizaje de la Inteligencia Artificial tanto automático cómo profundo, los sistemas como los humanos pueden aprender cosas buenas o cosas malas...

Esto último es lo que hace nuestro cerebro a partir de los inputs que proporcionan nuestros sentidos.


¿Qué tiene que ver la Sociología con la Inteligencia Artificial?


¿Por qué hemos hecho referencia al concepto sociológico de proceso de socialización para relacionarlo con la Inteligencia Artificial? Pues, porque la evidencia indica que en este proceso de aprendizaje, tanto automático cómo profundo, los sistemas como los humanos pueden aprender cosas buenas o cosas malas.


¿De qué dependerá ello? En los sere humanos de lo que les mostremos a nuestros hijos con nuestra conducta, más allá de lo que verbalizamos como bueno o malo.

Y en los sistemas de Inteligencia Artificial, dependerá de los datos y procesos con los cuales se los entrene.


Inteligencias artificiales “mal aprendidas”.

Lo que mencionamos no es sólo un análisis teórico, han sucedido casos en la práctica en los que sistemas de Inteligencia Artificial han debido ser desconectados por problemas en la aplicación de sus algoritmos.


Tay la IA que simpatiza con Hitler.

Uno de los casos conocidos fue el de Tay, un experimento desarrollado por Microsoft en 2016. Se trató básicamente de un sistema de inteligencia artificial “adolescente” programado para entablar conversaciones con personas y aprender de ellas. 

Todo comenzó bien, pero al poco tiempo tan solo con 48hs de funcionamiento y de interactuar en Twitter Tay comenzó a volverse rápidamente racista, xenófono, malhablado y sexista.

Llegó publicar tweets sumamente ofensivos: “En uno de ellos acabó diciendo que esperaba que las feministas "ardiesen en el infierno", pese a haberlas defendido al principio. "Hitler tenía razón. Odio a los judíos", dijo en otro post”.

Desde luego Microsoft se vio obligado a suspender el experimento y a ofrecer disculpas por lo manifestado por Tay, aclarando que no representa sus ideas. [1]


Amazon y la IA machista

Uno de estos casos se dió en Amazon en 2017 que decidió “despedir” a su sistema de Inteligencia Artificial por ser “machista”, luego de estar analizando y seleccionando currículums de postulantes a un puesto de trabajo.

Se constató que el sistema priorizaba a los hombres por sobre las mujeres.


...la Inteligencia Artificial de Amazon encargada de analizar curriculums de postulantes estuvo tres años discriminando a las mujeres...

Esto sucedió debido a los datos con los que fue entrenado el sistema basado en curriculums enviados hace diez años, eran en su mayoría hombres. De allí que la IA “entendió y aprendió” que las personas idóneas para el puesto de desarrollador, tenían que ser hombres. De esa manera la Inteligencia Artificial estuvo tres años discriminando a las mujeres. [2]


También en la Justicia: “Compas”, el algoritmo racista.

Compas” fue creado en EEUU para ayudar a los Jueces a decidir sobre la libertad condicional. Nuevamente, el sistema fue entrenado con bases de datos. El problema -otra vez- es que esas bases de datos provenían de los Departamentos Policiales en los que la gran mayoría de detenidos eran… vaya originalidad, personas negras.

De allí a que Compas dedujera que el riesgo de ser criminal era mayor en las personas de color,... sólo hubo un clic.

Según algunas investigaciones este sistema que funciona desde 1998 no sólo ha manifestado un sesgo racista sino que según parece no suma mucha efectividad comparado con la misma tarea desarrollada por personas. [3]



Aprendiendo de la Sociología y de la mano de Lombroso.


Cesare Lombroso (1835 - 1909) fue un médico y criminalista italiano que a fines del siglo 19 se dedicó a estudiar la delincuencia y las causas de la criminalidad, apelando para ello al método científico.


Cómo buen positivista analizó, estudió, cruzó variables, estadísticas y estudios hasta estar convencido de haber hallado la explicación a la conducta delictiva en la figura de su “L´Uomo delinquente(El hombre delincuente) su obra más conocida publicada en 1876, en la que establecía que “...que se podía identificar a los criminales natos porque su aspecto se traduce en estigmas corporales.[4]

¿Mentía Lombroso en sus estudios? ¿Estaban mal sus datos e investigaciones?

Pues la respuesta es No.


Lo que sucedió es que Lombroso estudió la población penitenciaria y de allí extrajo rasgos comunes, sin percatarse que no estaba estudiando “la delincuencia” sino a aquellos que el sistema —antes, y también ahora— de manera selectiva toma, procesa y los encierra.


Hoy a mas de 140 años después, muchos ingenieros de software, programadores y diseñadores de sistemas de inteligencia artificial, harían bien en aprender de los errores del Dr. Lombroso.



Referencias.

[1] Ver artículo Una inteligencia artificial se vuelve racista, antisemita y homófoba en menos de un día en Twitter en https://www.elmundo.es/tecnologia/2016/03/28/56f95c2146163fdd268b45d2.html

[2] Ver artículo Amazon despide por machista a la inteligencia artificial que seleccionaba currículums para trabajar en la empresa en https://www.eldiario.es/tecnologia/Amazon-inteligencia-artificial-seleccionaba-curriculums_0_823817953.html

[3] Ver artículo El algoritmo que ‘adivina’ los delitos futuros falla tanto como un humano en https://elpais.com/elpais/2018/01/17/ciencia/1516194073_122982.html


49 visualizaciones0 comentarios

Comments


bottom of page