Anuncio

En esta escuela china, el Gran Hermano vigilaba cada sonrisa y ceño fruncido de los estudiantes

Share

Al principio, simplemente parecía genial.

Cuando se instalaron cámaras de reconocimiento facial en una escuela preparatoria centenaria, aquí en el este de China, los estudiantes entraban y salían del campus, recogían almuerzos, pedían prestados libros e incluso compraban bebidas en una máquina expendedora con solo mirar las cámaras. No más preocupaciones por olvidarse la tarjeta de identificación.

Utilizando el último software de inteligencia artificial (IA), los dispositivos rastreaban el comportamiento de los alumnos y leían sus expresiones faciales, agrupando cada cara en una de siete emociones: ira, miedo, disgusto, sorpresa, felicidad, tristeza, y lo que se etiquetaba como neutral.

Pensemos en ello como una pequeña visión del futuro.

Mientras que las escuelas estadounidenses -así como los estudiantes y padres- se preocupan por el mayor énfasis en las pruebas estandarizadas y la pérdida de libertad en el aula que acontece con la “enseñanza para la prueba”, China ha estado llevando las cosas completamente a otro nivel.

Anuncio

Aquí, las cámaras de vigilancia tomaban información sobre las expresiones faciales individuales y la usaban para crear un “puntaje” continuo en cada alumno y clase. Si un puntaje alcanzaba un punto predeterminado, el sistema activab una alerta. Se esperaba que los maestros tomaran medidas: hablar con un alumno que era percibido como desconectado de la clase o como demasiado temperamental, por ejemplo.

Los administradores escolares estiman que los datos también pueden proporcionar retroalimentación a los docentes sobre sus conferencias y el manejo del aula, aunque no hablan de planes inmediatos para usar dichos detalles como parte de sus evaluaciones.

La mayoría de los estudiantes terminó odiando el monitoreo constante, y las consecuencias que siguieron cuando las máquinas informaban puntuaciones que sugerían que algunos de ellos -o clases enteras- no prestaban atención.

Algunos alumnos llegaron incluso a descubrir cómo jugar con el sistema, fingiendo lo que los diseñadores de las cámaras querían ver. “Si estás enojado, necesitas controlarte”, afirmó Zhu Juntao, de 17 años, usando sus dos dedos índices para presionar los extremos de su boca generando una falsa sonrisa. El joven nunca fue desafiado por un maestro, pero otros alumnos sí.

Los padres mostraron reacciones mixtas, pero una gran cantidad de ellos se quejaron de lo que consideraron una intrusión en la privacidad, y los administradores escolares, en junio, presionaron el botón de pausa en las cámaras.

No es que esos funcionarios hayan renunciado al sistema. Simplemente necesita más estudios y algunos ajustes, indicó Zhang Guanchao, subdirector de la escuela, quien cree que es una herramienta útil para los profesores. “Esperamos poder reincorporar el sistema de vuelta al campus en septiembre”, aseveró, mientras los estudiantes terminaban los exámenes finales.

La tecnología de identificación facial se ha desarrollado rápidamente y se está implementando en más lugares del mundo. Algunos aeropuertos y agencias del orden de Estados Unidos ahora la usan para detectar a los viajeros y a las personas buscadas. Gran Bretaña y Rusia están, entre otros, probando el software como parte de sus iniciativas generales de control y vigilancia.

Pero ningún país ha empleado el reconocimiento facial tan agresivamente como China. Esto refleja el intenso enfoque del gobierno central en la seguridad pública y el control de los residentes, especialmente en la región occidental de Xinjiang, donde Beijing usa reconocimiento facial altamente sofisticado, escáneres de iris y otros softwares de inteligencia artificial para monitorear a su población musulmana uigur -y controlar cualquier actividad separatista-.

Al mismo tiempo, Beijing está haciendo un gran esfuerzo en la inteligencia artificial. China se ha fijado el objetivo de ser líder mundial en ello para el año 2030 y está invirtiendo mucho para apoyar las nuevas empresas, para la investigación y para un mayor uso de las tecnologías de vigilancia inteligente.

Los medios estatales afirmaron recientemente que el sistema de metro de Beijing planea instalar cámaras de reconocimiento facial junto con escáneres de palmas este 2018, aparentemente para aliviar la congestión al permitir a los pasajeros obtener un ingreso más rápido, pero ello también les da a las autoridades otra herramienta para monitorear a la población.

En Beijing y en toda China, las cámaras de circuito cerrado y otros dispositivos de vigilancia son tan omnipresentes que se han convertido en parte del paisaje. Si el reconocimiento facial ayuda con la seguridad pública, dicen algunos, se trata de algo bueno. “Tal vez las personas se comportarían mejor”, observó Xia Chuzi, una estudiante de 19 años entrevistada en Beijing.

Para Chen Hong, otro residente de Beijing, su principal preocupación es si la tecnología funcionará bien como para identificar rostros correctamente. “No me preocupa la privacidad”, indicó el joven de 24 años, que instala equipos de internet de alta velocidad para ganarse la vida.

Hangzhou, un importante destino turístico a unos 100 kilómetros al suroeste de Shanghai, es ahora uno de los principales centros tecnológicos del país, en parte gracias al gigante del comercio electrónico Alibaba. También se encuentra allí Hikvision, el mayor fabricante mundial de productos de videovigilancia.

Hikvision suministró los dispositivos de reconocimiento de rostros a la preparatoria No. 11, de Hangzhou. Implementarlos en escuelas de todo el país sería altamente lucrativo. La compañía, parcialmente estatal, no respondió a las solicitudes de una entrevista.

Los expertos opinan que las tecnologías que reconocen o verifican las caras son una cosa, pero monitorear las emociones con dispositivos de inteligencia artificial lleva el tema a otro nivel. Estos incluyen no solo cámaras sino también sombreros y gorras con sensores para monitorear las ondas cerebrales que detectan cambios en el estado de ánimo de una persona.

Los defensores de los derechos humanos y la privacidad ven esa vigilancia emocional como parte del creciente régimen de control de seguridad de China, un mundo cada vez más orwelliano en el que las personas no pueden escapar del ojo del gobierno y las presiones de la conformidad en el comportamiento social.

“Es un precedente absolutamente peligroso anclar el comportamiento o ciertas acciones de alguien, según las emociones o características presentadas en sus caras”, expuso Clare Garvie, asociada del Center on Privacy and Technology, en el Centro de Leyes de la Universidad de Georgetown.

Los educadores en China criticaron duramente a la escuela de Hangzhou, no solo por invadir la privacidad de los alumnos -ni a ellos ni a sus padres se les pidió consentimiento-, sino por implementar un sistema no probado que pretende mejorar el rendimiento de los alumnos.

Incluso suponiendo que las máquinas puedan leer con precisión las emociones faciales, no está nada claro cómo las expresiones externas se relacionan con el aprendizaje, argumentó He Shanyun, profesora asociada de educación en la Universidad de Zhejiang, en Hangzhou.

Para la docente, el reconocimiento facial es defectuoso de otra forma: no explica las diferentes personalidades y una cultura china que puede estar predispuesta a un rostro estoico. Incluso si un dispositivo de inteligencia artificial puede ayudar a un maestro, explica, “no se debe usar para castigar a los estudiantes o catalogarlos”.

Zheng Suning, estudiante de décimo grado en Hangzhou No. 11, habla con orgullo de su escuela. Fue fundada en 1904, pero ahora se encuentra entre las de más alta tecnología en el país. “Tenemos visitantes regularmente”, afirmó.

Los administradores escolares, sin embargo, rechazaron un pedido para recorrer las instalaciones.

Zheng recuerda el problema cuando perdió su identificación escolar. Ahora está un poco cohibida acerca de que su rostro se muestre a los demás, pero dice que es excepcionalmente conveniente. “Le muestras tu rostro a la máquina y saca tu bandeja del almuerzo”, dijo.

Aún así, la joven de 16 años teme un regreso de las cámaras en el aula.

Al igual que la mayoría de los estudiantes de preparatoria en China, Zheng y sus compañeros de clase asisten a la escuela desde la mañana hasta tarde noche. Además de eso, Zheng toma lecciones de tutoría privadas dos veces por semana, de dos horas cada una. Ella cree que, quizás, las cámaras la ayudarán a ser una mejor estudiante, pero le preocupa que agreguen más estrés; no sabe cómo evitar no parecer adormilada. “Ya estoy tan cansada”, aseguró.

Además, está la cuestión de simular las expresiones y los comportamientos que las cámaras buscan, según creen los estudiantes. No importa cuán cansada o aburrida fue la conferencia, dijeron; el truco era mirar al frente.

“Algunos alumnos fingen estar muy concentrados”, remarcó Chu Haotian, de 17 años de edad. Su compañero de décimo grado, Zhu Juntao, agregó: “Aunque seas un buen alumno, es posible que no tengas una buena expresión”.

Aún no se han instalado cámaras de reconocimiento facial en todas las aulas de la escuela; estas supervisaron solo a estudiantes de décimo grado, durante casi dos meses antes de que se suspendiera su uso.

A los educadores les preocupa que monitorear las emociones fomente una atención excesiva sobre el comportamiento externo o se convierta en un medio activo de control social. Por ello, en parte, Xiong Bingqi, un profesor de educación en la Universidad Jiaotong, de Shanghai, la llama “tecnología negra”. “Las cámaras tienen una muy mala influencia en el desarrollo de los estudiantes”, aseguró. “Simplemente no deberían usarse más.

“Fue una mala idea desde el principio”, agregó Xiong. “Lo que hicieron fue aprovecharse de los alumnos. Las nuevas tecnologías no debería ser una excusa para hacer este tipo de cosas”.

Para leer esta nota en inglés, haga clic aquí.

Anuncio