👣Las huellas dactilares falsas pueden imitar a las reales en los sistemas biométricos👣

✍🏽Las DeepMasterPrints, creadas por una técnica de Machine Learning tienen una tasa de error de sólo uno de cada cinco

✍🏽Los investigadores han utilizado una red neuronal para generar huellas dactilares artificiales que funcionan como “llave maestra” para los sistemas de identificación biométrica y que prueban que se pueden crear huellas dactilares falsas.

1

2

✍🏽Según una ponencia presentada en una conferencia de seguridad en Los Ángeles, las huellas dactilares generadas artificialmente, denominadas “DeepMasterPrints” por los investigadores de la Universidad de Nueva York, fueron capaces de imitar más de una de cada cinco huellas dactilares en un sistema biométrico que sólo debería tener una tasa de error de una entre mil.

✍🏽Los investigadores, dirigidos por Philip Bontrager de la Universidad de Nueva York, dicen que “el método subyacente probablemente tenga amplias aplicaciones en la seguridad de las huellas dactilares, así como en la síntesis de las mismas“. Como ocurre con gran parte de la investigación en materia de seguridad, se considera que la demostración de los fallos de los sistemas de autenticación existentes es una parte importante del desarrollo de sustituciones más seguras en el futuro.

✍🏽Para trabajar, las DeepMasterPrints aprovechan dos propiedades de los sistemas de autenticación basados en las huellas dactilares.

1️⃣La primera es que, por razones ergonómicas, la mayoría de los lectores de huellas dactilares no leen todo el dedo de una sola vez, en su lugar la imagen de cualquier parte del dedo que toca el escáner.

✍🏽Es crucial que estos sistemas no mezclen todas las imágenes parciales para comparar el dedo completo con un registro completo, sino que simplemente comparen el escaneo parcial con los registros parciales. Esto significa que un atacante tiene que hacer coincidir sólo una de las decenas o cientos de huellas dactilares parciales guardadas para que se le conceda acceso.

2️⃣La segunda es que algunas características de las huellas dactilares son más comunes que otras. Esto significa que una huella falsa que contiene muchas características muy comunes es más probable que coincida con otras huellas dactilares de lo que la pura casualidad sugeriría.

✍🏽Basándose en estos conocimientos, los investigadores utilizaron una técnica común Machine Learning, llamada red generativa de adversarios, para crear artificialmente nuevas huellas dactilares que coincidieran con el mayor número posible de huellas dactilares parciales.

✍🏽La red neuronal no sólo les permitió crear múltiples imágenes de huellas dactilares, sino que también creó falsificaciones que se parecen de manera muy convincente a una huella dactilar real para el ojo humano, una mejora con respecto a una técnica anterior, que creaba huellas dactilares dentadas y en ángulo recto que engañarían a un escáner pero no a una inspección visual.

✍🏽Comparan el método con un “ataque de libro” contra las contraseñas, en el que un hacker ejecuta una lista pre-generada de contraseñas comunes contra un sistema de seguridad.

✍🏽Tales ataques pueden no ser capaces de entrar en ninguna cuenta específica, pero cuando se usan contra cuentas a escala, generan suficientes éxitos para que valga la pena el esfuerzo.

✍🏽El peligro de que el pasado digital de los jóvenes les persiga para siempre

✍🏽‘Los Hijos de la Noche’: los anarquistas que salvaron a 4.000 personas de ser ejecutadas por Franco

Lo que empezó siendo una tecnología liberadora

se ha convertido en una herramienta para la vigilancia y la manipulación.

error404.png

La libertad en Internet se ve cada vez más amenazada por las herramientas y tácticas del autoritarismo digital, que se han extendido rápidamente por todo el mundo. Los regímenes represivos, los políticos electos pero con ambiciones autoritarias y sus agentes sin escrúpulos han explotado los espacios no regulados de las plataformas de medios sociales, convirtiéndolos en instrumentos para la distorsión política y el control social.

Mientras que los medios sociales han servido a veces como un campo de juego equilibrado para el debate cívico, ahora se inclinan peligrosamente hacia el antiliberalismo, exponiendo a los ciudadanos a una represión sin precedentes de sus libertades fundamentales. Además, una amplia gama de gobiernos están desplegando herramientas avanzadas para identificar y monitorear a los usuarios a una escala inmensa. Como resultado de estas tendencias, la libertad global de Internet ha disminuido, en 2019, por noveno año consecutivo.

Los medios sociales permiten a la gente común, a los grupos cívicos y a los periodistas llegar a una gran audiencia con un costo mínimo o nulo, pero también han proporcionado una plataforma extremadamente útil y barata para las operaciones de distorsión por parte de actores extranjeros y nacionales por igual. Los líderes políticos emplean a individuos para formar subrepticiamente opiniones en línea. En muchos países, el auge del populismo y de la extrema derecha coincide con el crecimiento de las turbas hiperpartidistas en línea que incluyen tanto a los usuarios auténticos como a las cuentas fraudulentas o automatizadas. Construyen grandes audiencias en torno a intereses similares, entrelazan sus mensajes políticos con contenidos falsos o incendiarios, y coordinan su difusión a través de múltiples plataformas.

Mientras que los medios sociales han servido a veces como un campo de juego nivelado para la discusión civil, ahora se están inclinando peligrosamente hacia el autoritarsmo.

Las operaciones de influencia transfronteriza, que por primera vez atrajeron la atención de la opinión pública como resultado de la interferencia rusa en la contienda presidencial estadounidense de 2016, son también un problema cada vez más común. Las autoridades de China, Irán, Arabia Saudita y una creciente lista de otros países han ampliado sus esfuerzos para manipular el entorno en línea e influir en los resultados políticos extranjeros durante el último año.

Además de facilitar la difusión de propaganda y desinformación durante los períodos electorales, las plataformas de medios sociales han permitido la recopilación y el análisis de grandes cantidades de datos sobre poblaciones enteras. La sofisticada vigilancia masiva, que antes sólo era factible para las principales agencias de inteligencia del mundo, ahora es asequible para una gama mucho más amplia de estados. Los gobiernos más represivos están adquiriendo herramientas de vigilancia de los medios sociales que emplean inteligencia artificial para identificar las posibles  amenazas y silenciar las manifestaciones no gratas. Incluso en las democracias, esta vigilancia masiva se está extendiendo por todos los organismos gubernamentales y se está utilizando para nuevos fines sin las salvaguardias adecuadas. El resultado es un un aumento global de los ataques a las libertades civiles y la reducción del espacio en línea para el activismo cívico.

Mientras que  China, Rusia y Estados Unidos juegan un papel enorme en coartar la posibilidad de que la tecnología ofrezca mayores capacidades para la defensa de los derechos humanos: el futuro de la libertad en Internet se basa en nuestra capacidad para usar medios sociales adecuados que garanticen la defensa de nuestros datos, medios para compartir entre iguales, que no se conviertan en almacenes de datos en venta para las grandes multinacionales y gobiernos.

No hay tiempo que perder. Las nuevas tecnologías, como la biometría avanzada, la inteligencia artificial y las redes móviles pueden ofrecer oportunidades para el desarrollo humano, pero plantean una serie de problemas en materia de derechos humanos. Para que Internet no se convierta en un caballo de Troya de la tiranía y la opresión (política y comercial) es necesario proteger con firmeza las libertades democráticas. El futuro de la privacidad, la libertad de expresión y la gobernabilidad democrática depende de las decisiones que tomemos hoy, nosotros como personas.

El futuro de la libertad en Internet depende de nuestra capacidad de usar los medios sociales apropiados, no comerciales, peer to peer y libres.

“No nos dejen solos”

Trump dice que el PKK es peor que ISIS. Yo digo que se equivoca, y yo soy turco.

Dudas y claves sobre el decreto que permite al Gobierno intervenir Internet para “preservar el orden público”

A la caza del escaño (contra el trifachito)

Google, malware, tanto monta, monta tanto

Captura de pantalla de 2019-08-27 18-00-38

El software de Google es Malware

Otros ejemplos de malware patentados

Malware significa software diseñado para funcionar de forma tal que maltratan o dañan al usuario. (Esto no incluye errores casuales.) Vamos a explicar cómo el software de Google es malware.

Malware y software no libre no son la misma cosa. La diferencia entre software libre y no libre está en si los usuarios controlan el programa o viceversa. Carece de interés lo que el programa hace cuando se ejecute. Sin embargo, el software no libre en la práctica a menudo es malware, porque el saber, por parte del desarrollador, que los usuarios son impotentes para descubrir cualquier funcionalidad malévola tienta al desarrollador a imponer alguna.

Si conoces algún caso que debiera ser conocido de forma pública, por favor escribe a

<webmasters@gnu.org> para informar. Incluye URL de una referencia de confianza o dos para servir como justificación específica.

Tipo de malware

Puertas traseras de Google

El artículo sugiere que podría ser una puerta trasera universal, pero esto no está claro.

  • ChromeOS tiene una puerta trasera universal. Al menos, Google dice eso — en el apartado 4 de EULA.
  • En Android, Google tiene una puerta trasera para suprimir remotamente apps. (Estaba en un programa llamado GTalkService, que parece haberse combinado en Google Play.)Google también puede instalar a la fuerza y remotamente apps a través de GTalkService. Esto no es equivalente a una puerta trasera universal, pero permite algunas malas jugarretas.Aunque el uso de Google de este poder no haya sido malévolo hasta ahora, el caso es que nadie debería tener tal poder, que también se podría usar maliciosamente. Deberías poder decidir si dejas a un servicio de seguridad desactivar remotamente programas que considera malévolo. Pero no hay excusa para permitirle suprimir los programas, y deberías tener el derecho de decidir en quien (si a cualquiera) puedes confiar de esta manera.

Censura de Google

Por ejemplo, una extensión estuvo prohibida en la tienda web de Chrome, e imposibilitada permanentemente en más de 40,000 ordenadores.

  • Google censuró la instalación del bloqueador de anuncios de Samsung en los teléfonos Android, con la excusa de que bloquear los anuncios es “interferencia” con los sitios que anuncian (y vigilan a los usuarios a través de los anuncios).El bloqueador de anuncios es software propietario, justo como el programa (Google Play) que Google utiliza para negar acceso para instalarlo. Utilizando un programa no libre da al propietario poder por encima de tí, y Google ha ejercitado ese poder.La censura de Google, a diferencia de la de Apple, no es total: Android permite a los usuarios instalar aplicaciones de otras maneras. Puedes instalar programas libres de f-droid.org.

Google DRM

Inseguridad de Google

Estos bugs no son/eran intencionados, así a diferencia del resto del archivo no cuentan como malware. Lo mencionamos para negar la suposición de que el software propietario con prestigio no tiene graves bugs.

Interferencia de Google

Esta sección da ejemplos de software de Google que acosa o molesta al usuario, o le causa problemas. Estas actos son parecidos al sabotaje pero la “palabra” sabotaje es demasiado fuerte para ellos.

Sabotaje de Google

Los errores de esta sección no son precisamente malware, ya que no implica que el programa que se ejecute ataque al usuario. Pero son un poco como malware, ya que son técnicamente actos de Google que dañan a los usuarios de un software de Google concreto.

  • Revolv es un dispositivo IoT que gestionaba operaciones “smart home”: cambiando las luces, operando sensores de movimiento, regulando la temperatura, etc. El 15 de mayo del 2016, Google declaró que cerraría el servicio vinculado al dispositivo, anulándolo.A pesar de que puedes poseer el dispositivo, su funcionamiento depende del servidor que nunca ha sido tuyo. Así que nunca lo has controlado. Esta injusticia diseñada se llama Servicio como Sustituto de un Software (SaaSS). Esto es lo que da a la compañía el poder de convertirlo en un ladrillo de $ 300 sin garantía, para tu “casa tonta”.
  • Google/Alphabet intencionadamente rompió los productos de control automático de casas Revolv que dependían de un servidor para funcionar, cerrando el servidor. La lección es, rehusar tales productos. ¡Insistir en ordenadores doméstico con software libre!
  • Google ha mucho tiempo tuvo una puerta trasera de apertura remota en un dispositivo Android, a no ser que su disco esté encriptado (posible desde el Androide 5.0 Lollipop, pero todavía no por defecto).

Google Surveillance

  • Google “Assistant” graba las conversaciones de los usuarios incluso cuándo se supone que no está escuchando. Así, cuándo uno de los subcontratistas de Google revela mil registros de voces confidenciales, los usuarios son fácilmente identificados desde dichos registros.

Ya que Google “Assistant” utiliza software propietario, no hay manera de ver o controlar qué graba o envía.

Más que intentar mejorar el control de registros, Google no debería grabar o escuchar la voz de la persona. Sólo debería de quedarse con las órdenes que el usuario quiere enviar a algún servicio de Google.

Esto no es una función maliciosa de un programa con algún otro propósito; esto es el propósito único del software, y así dice Google. Pero lo dice de una manera que anima a las personas a que ignoren los detalles. Así, creemos, lo hace merecedor de figurar aquí.

Google Tyrants

  • Motorola, entonces propiedad de Google, fabricó el Android que tiene tiranos (aun así alguien encontró una manera de agrietar la restricción). Afortunadamente, la mayoría de dispositivos de Androide no son tiranos.

padre

mercosur

La tecnología es peligrosa

Así dice un ingeniero de google, lo es al tomar partido.

  • “Es hora de decidir, ¿ejecutamos la tecnología o la tecnologia nos ejecuta a nosotros?”
  • “Realmente no comparto la idea de que la gran tecnología es políticamente neutral”.
  • “¿Vamos a dejar que las compañías de tecnología más importantes decidan quién gana cada elección de ahora en adelante?”
  • “Miro las búsquedas y miro Google News, veo lo que está haciendo y veo a los ejecutivos de Google que van al Congreso y dicen que no están manipulando. No es correcto. Y estoy tan seguro de que eso no es cierto “.
  • “Tengo un doctorado, tengo cinco años de experiencia en Google y sé cómo son los algoritmos. No se escriben ellos mismos. Los escribimos para hacer lo que queremos que hagan”.

BeBrave-Website-870x383

(Nueva York) Project Veritas ha publicado una entrevista oficial con un empleado de Google llamado Greg Coppola.

Esta entrevista de video sigue a una serie de informes internos de Google, incluidos los documentos internos de Google, publicados recientemente por Project Veritas, que expusieron sesgos políticos, “injusticia algorítmica” y el uso de “listas negras” en YouTube.

Coppola es un ingeniero senior de software en Google que trabaja en inteligencia artificial y el Asistente de Google:

  • COPPOLA: “He estado programando desde que tenía diez [años]. Tengo un doctorado, cinco años de experiencia en Google y sé cómo son los algoritmos. No se escriben ellos mismos. Los escribimos para hacer lo que quieren que hagan“.

(Otras personas valientes que se sientan obligadas a exponer irregularidades pueden contactar con Project Veritas enviando un correo electrónico cifrado a VeritasTips@protonmail.com).

“Eso puede ser peligroso …”

El informante habló con el Project Veritas porque quiere que la gente sea consciente de sus preocupaciones sobre la capacidad de las compañías tecnológicas para influir en la política:

  • COPPOLA: “Bueno, creo que estamos en un punto realmente importante en la historia de la humanidad. Creo que por un tiempo tuvimos tecnología que era políticamente neutral. Ahora tenemos tecnología que realmente, en primer lugar, está tomando partido en un concurso político, que creo que, cada vez que tenga un gran poder corporativo, la fusión con los partidos políticos puede ser peligrosa. Y creo que, en general, tenemos que decidir ahora que estamos viendo que la tecnología usa su poder para manipular a las personas. Es un momento para decidir, ya sabes, ¿ejecutamos la tecnología, nos ejecuta la tecnología a nosotros?”

Coppola cree que las motivaciones políticas de Google han comprometido la integridad de los productos de Búsqueda y Noticias de la compañía:

  • COPPOLA: “Creo que tuvimos un largo período de diez años, digamos, donde tuvimos búsquedas y redes sociales que no tenían un sesgo político y nos acostumbramos a la idea de que los mejores resultados de búsqueda en Google eran probablemente la respuesta. Y Robert Epstein, quien testificó ante el Congreso la semana pasada, eh, lo investigó y demostró que, ya saben, la gran mayoría de la gente piensa que si algo tiene una calificación más alta en la Búsqueda de Google que otra historia, sería más importante y más correcto.. Y ya sabes, no hemos tenido tiempo de absorber el hecho de que la tecnología podría tener una agenda. Quiero decir, es algo de lo que solo estamos empezando a hablar ahora “.

Preguntado sobre el testimonio del CEO de Google, Sundar Pichai, en el Congreso de los EE.UU. en diciembre de 2018, donde Pichai dijo que los algoritmos de Google eran políticamente imparciales, Coppola dijo:

  • COPPOLA: “En primer lugar, informo a Sundar, por supuesto. Y le tengo mucho respeto como gerente. Trabajo en el Asistente de Google, que realmente no tiene sesgo político. Google Assistant son temas como, “oye, Google, establece una alarma para las nueve de la mañana”, “toca algo de música”, ese tipo de cosas … Creo que es ridículo decir que no hay sesgo. Creo que todos los que apoyan cualquier otra cosa que no sean los demócratas, cualquiera que sea pro-Trump o se desvíe de lo que CNN y el New York Times están presionando, se dan cuenta de lo mal que está “.

(Los documentos internos de las grandes empresas de tecnología pueden enviarse a Project Veritas por correo electrónico seguro a VeritasTips@protonmail.com)

“Fue solo una oportunidad de trabajar con los mejores informáticos del mundo”

Según Coppola, la compañía se politizo más justo antes de las últimas elecciones presidenciales:

  • COPPOLA: “Comencé en 2014. Este fue un momento increíble para estar en Google. No hablabamos de política. Nadie hablaba de política. Ya sabes, solo era una oportunidad para trabajar con los mejores informáticos del mundo, las mejores instalaciones, los mejores ordenadores y la comida gratis. Creo que a medida que la elección avanzó, el enfoque de los demócratas y los medios de comunicación fue que a quien le gustaba Donald Trump era un racista … Y eso fue recogido en todas partes. Quiero decir, todas las empresas de tecnología, todos en Nueva York, todos en el campo de la informática lo creían básicamente. Una pequeña cantidad de personas trabaja para asegurarse de que se promocionaran ciertos sitios de noticias. Y, de hecho, creo que solo se necesitaría un par de una organización de 100,000, para asegurarse de que el producto sea en cierta manera …

Coppola señaló que cree que la mayoría de los empleados de Google no están motivados políticamente en su trabajo, y que la compañía en realidad es muy protectora de los datos privados de los usuarios a pesar de las críticas públicas de la compañía:

  • COPPOLA: “El trabajo de la mayoría de las personas [en Google] no está polítizado y sin implicación. Quiero decir que hay una gran cantidad de sistemas y muchos de ellos no tienen nada que ver con política como el procesamiento de lenguaje natural … De hecho, diría que las preocupaciones de Google sobre el asistente están demorando mucho más en construir el asistente de lo que necesitaría porque hay tal respeto en Google por la privacidad y por los datos del usuario. Y espero que dejen esto y espero que la gente se dé cuenta de que realmente existe, diría que, como informante de Google, hay mucho interés en el cuidado de los datos de las personas y, a la inversa, esto significa que usted conoce la lista de reputaciones. es probable que pueda acceder a las asignaciones desde el nuevo sitio a un número que representa su credibilidad”.

El informante expresó su preocupación acerca de hacerlo público, pero también ofreció soluciones para remediar las acusaciones de sesgo político en Google:

  • COPPOLA: “Creo que el mayor problema aquí es simplemente la falta general de transparencia que tenemos hoy en nuestros productos. Um, por ejemplo, si tuviéramos software de código abierto, sabríamos por qué se llegó a cada respuesta”.
  • COPPOLA: Sí, quiero decir, tengo un trabajo bien pagado y tiene otros beneficios como trabajar con compañeros muy inteligentes y realmente a la vanguardia de la informática. El Asistente de Google es probablemente el sistema de inteligencia artificial más avanzado del mundo. Entonces, para alguien como yo que ha estado programando desde que era un niño, es difícil encontrar un trabajo que me empuje a los límites de la forma en que trabaja Google. Pero creo que solo, ya sabes, miro la búsqueda y miro Google News, veo lo que está haciendo y veo que los ejecutivos de Google van al Congreso y dicen que no está manipulado. No es político. Y estoy tan seguro de que eso no es cierto. Eso es, ya sabes, se vuelve mucho menos divertido trabajar en el producto. Así que te afecta mucho. Sí, definitivamente. Quiero decir, lo que pasa con Google es que si te vas, um, ya sabes, cualquier otro salario en cualquier otra empresa será menor. Hmm Así que creo que es un sacrificio “.
  • COPPOLA: “Solo quiero decir a todos los que no son programadores que realmente no vendo la idea de que la gran tecnología sea políticamente neutral, y creo que debemos comenzar a incorporar eso en cualquier estrategia que usemos para que la democracia siga adelante”. .
El proyecto Veritas continuará investigando el sesgo político en las grandes empresas de tecnología. Los expertos de empresas tecnológicas como Google, Facebook y Twitter pueden comunicarse con Project Veritas a través de correo electrónico cifrado en VeritasTips@protonmail.com”

(Los expertos en tecnología pueden comunicarse con Project Veritas enviando un correo electrónico a VeritasTips@protonmail.com para ayudar a exponer irregularidades similares de interés periodístico).

Pearson y Google se asocian para lavarle el cerebro a tus hijos e hijas

cartle.jpeg

A padres y educadores les preocupa  el tiempo que pasan hipnotizados los niños, niñas y adolescentes frente a las pantallas, sean ordenadores, teléfonos, consolas y/o televisores, y su impacto en el desarrollo cerebral, emocional e intelectual. En 2018, la edad promedio de los niños estadounidenses que recibieron su primer “teléfono inteligente” fue de diez años. La mitad de los niños de los Estados Unidos están en Facebook o en alguna otra plataforma de redes sociales a los doce años. Según las encuestas realizadas con adolescentes, según declaran, aproximadamente un cuarta parte de estos están en línea “casi constantemente“. Safer Internet Center, con sede en Gran Bretaña, informa que el 22% de los niños entre las edades de 8 a 17 años han sido víctimas de ciberacoso. Mientras tanto, un estudio realizado por un equipo de la Universidad Estatal de San Diego (California) ha descubierto que los adolescentes que pasan más tiempo en línea son menos felices que sus compañeros que participan en otras actividades. El investigador principal, Jean Twenge, atribuye las crecientes tasas de depresión adolescente a un mayor uso de las redes sociales y al tiempo que pasan en línea.

Un estudio del National Institute of Health sobre el desarrollo del cerebro dice que los niños que pasan más de dos horas al día mirando las pantallas de ordenadores, consolas, teléfonos y televisores obtienen puntuaciones más bajas que sus compañeros en los exámenes de pensamiento y lenguaje y que sus cerebros reales parecen divergir de los patrones de desarrollo normales . Según la Dra. Gaya Dowling, del NIH, “la resonancia magnética encuentra diferencias significativas en el cerebro de algunos niños que usan teléfonos inteligentes, tabletas y videojuegos más de siete horas al día. . . Los colores muestran diferencias en los cerebros de los niños de nueve y diez años. El color rojo representa el adelgazamiento prematuro de la corteza. Esa es la capa externa más arrugada del cerebro que procesa la información de los cinco sentidos ”. La Dra. Kara Bagot, investigadora del estudio del NIH, sospecha que el tiempo de detección excesivo tiene un efecto adictivo en niños y adolescentes. “El tiempo de pantalla estimula la liberación de la dopamina química del cerebro, que tiene un papel fundamental en los antojos y el deseo“.

Las pautas de la Academia de Pediatría para el tiempo en pantalla recomiendan que los padres “eviten el uso de medios digitales, excepto el video chat, en niños menores de 18 a 24 meses“. En medio de un “experimento sin control en la próxima generación de niños“. Según el Dr. Christakis, los bebés que juegan con iPads no transfieren lo que aprenden del iPad al mundo real. “Si le das a un niño una aplicación donde juegan con Legos virtuales, bloques virtuales y los apilan, y luego ponen bloques reales frente a ellos, comienzan de nuevo“.

Nada de esto ha impedido que las empresas cibernéticas depredadoras promuevan más y más productos en línea dirigidos a niños y padres que creen que les darán un impulso educativo a sus hijos. Pearson Education, que se llama a sí misma la “compañía de aprendizaje del mundo“, acaba de anunciar una asociación entre su subdivisión Pearson Realize ™ y Google hace que Pearson se convierta en un Socio Premier de Google for Education. Los estudiantes tendrán un acceso más fácil a miles de “recursos y tareas de aprendizaje” interactivos, incluida una de las bibliotecas más grandes de “evaluaciones formativas” en línea. Para aquellos que no están acostumbrados a la jerga educativa, eso significa que los niños pueden pasar mucho tiempo haciendo exámenes de práctica para prepararlos. Pearson preparó y entregó pruebas estandarizadas de alto riesgo. Otro beneficio de la asociación, al menos para Pearson y Google, es que “los maestros pueden importar listas de Google Classroom y crear nuevas clases en Realize. Cuando asignan Realize contenido a los estudiantes, los puntajes fluyen en Realize y también se registran en Google Classroom”. Todo es perfecto, pero el proceso logra ignorar el aprendizaje de seres humanos reales.

Si bien Pearson y Google están ocupados tratando de reemplazar a los maestros y la enseñanza con la preparación de exámenes en línea, el contacto humano, el tipo que los niños necesitan para prosperar, se está convirtiendo en un lujo bueno para los ricos. Según una reciente columna del New York Times Sunday Review, “los ricos se han asustado de las pantallas. Quieren que sus hijos jueguen con bloques, y las escuelas privadas libres de tecnología están en auge. Los humanos son más caros, y los ricos están dispuestos y pueden pagar por ellos“. Mientras que las empresas de tecnología empujan a las escuelas públicas a invertir en un ordenador portátil por niño y costosos programas de “aprendizaje”, en Silicon Valley los técnicos envían a sus propios hijos a los locales. la escuela privada Waldorf, que ofrece una educación de regreso a la naturaleza casi sin pantallas y se aleja de las pruebas estandarizadas de alto nivel que las empresas tecnológicas promocionan para los niños de otras personas.

La Dra. Sherry Turkle, profesora de ciencia y tecnología en el MIT, teme que el impulso a los programas de educación en línea y más tiempo en pantalla en las escuelas sea el equivalente a convertir a nuestros hijos en adictos a la “comida rápida”.

ldd

Cómo evitar que la I.A. se convierta en Terminator

Por Mark Surman (director ejecutivo de la Fundación Mozilla, una comunidad global dedicada a mantener  Internet abierta y libre. Las opiniones expresadas en el presente comentario son las suyas no de la funcación).

mark(CNN)La inteligencia artificial (IA) ha ocupado durante mucho tiempo un lugar destacado en nuestra imaginación colectiva, desde las novelas de ciencia ficción hasta los éxitos de taquilla de James Cameron. Cuando la IA es el antagonista, es imposible de pasar por alto, como Terminator. Incluso en el mundo real, las discusiones sobre la tecnología deshonesta tienden a centrarse en lo abierto y dramático, como las exhortaciones de Elon Musk en Twitter de que los peligros de la IA rivalizan con los peligros de las armas nucleares.

Tal vez la humanidad se está moviendo hacia una opresiva superinteligencia artificial. Mientras tanto, la inteligencia artificial ya está entretejida en nuestra vida cotidiana. Nos proporciona cosas que nos encantan y necesitamos, desde consejos de productividad hasta recomendaciones de películas. Sin embargo, cuando no consideramos cuidadosamente su impacto en nuestras democracias, nuestros sistemas de justicia y nuestro bienestar, nos abrimos a riesgos reales.

La IA de hoy nos resulta invisible para la mayoría, pero es omnipresente. Un ejemplo con el que interactuamos con frecuencia son los motores de búsqueda en Internet, el código que recomienda que el siguiente video esté en YouTube o en Facebook. Estos algoritmos reúnen grandes cantidades de nuestros datos personales para saber de nosotros y guardar nuestra experiencia en línea. En este caso, la IA son simplemente nuestros datos personales mezclados con los datos de personas con intereses similares, y que nos señalan.

El resultado puede ser fortuito y encantador. También puede ser peligroso. El año pasado, magnates de Silicon Valley explicaron a la revista New York Magazine cómo los medios sociales de hoy en día están diseñados para hacer adictos a los usuarios. El uso de nuestros datos para manipularnos para permanecer o no en un sitio no tiene por que ser pernicioso por si mismo.

Pero incluso si eso no te preocupa, cada vez hay más pruebas de que estos sistemas tienden a radicalizarse y polarizarse. El año pasado, la investigadora de la Universidad de Carolina del Norte en Chapel Hill, Zeynep Tufekci, apodó a YouTube “el Gran Radicalizador“: ves un video anti-vacunación, y YouTube te sugerirá un segundo; ves un video de hechos políticos incorrectos, y YouTube te recomendará una secuela.

Además, estos algoritmos pueden ser usados por los humanos para sembrar aún más discordia. La investigadora de Data for Democracy y compañera de Mozilla Renee DiResta descubrió cómo los activistas antivacunas aprovechan el algoritmo de Google para difundir desinformación peligrosa. ¿Cómo? Publicando montones de artículos engañosos salpicados de palabras claves y términos de búsqueda populares. También testificó recientemente ante el Congreso de cómo los operadores rusos manipularon la inteligencia artificial de Facebook para influir en los votantes estadounidenses haciéndose pasar por presentadores de noticias y votantes estadounidenses.

Por supuesto, el problema no es la tecnología, per se — la IA no es intrínsecamente maliciosa. Pero replica y amplifica el sesgo humano. Los programas de ordenador están hechos por humanos que se endurecen con ciertos objetivos diseñados y se basan en algunos conjuntos de datos. A todo esto se añaden las contradicciones normales de la humanidad: la generosidad y la codicia; la inclusión y la parcialidad; el bien y el mal.

Piénsalo: Si los objetivos e incentivos de un grupo de programadores son aumentar los ingresos publicitarios, no es de extrañar que los algoritmos de recomendación de contenido que crean mantengan a la gente viendo videos el mayor tiempo posible. Y, dado que estos algoritmos aprenden y se adaptan para mejorar en sus objetivos, no es sorprendente que aplicaciones como Facebook, YouTube e Instagram se estén convirtiendo en lo que el profesor Ronald J. Deibert, que ha sido anfitrión de antiguos compañeros de Mozilla, denomina “máquinas de adicción” en un reciente artículo titulado “Tres verdades dolorosas sobre los medios sociales“.

Además, esta tecnología la desarrollan un puñado de compañías — nombres como Facebook que ya conoces y otros, como Palantir, que seguramente no conoces — con poca transparencia. Los funcionarios públicos, los periodistas de investigación y los ciudadanos con conciencia cívica no pueden examinar el código para descubrir problemas. En pocas palabras: “El público no tiene las herramientas para responsabilizar a los algoritmos“.

La pregunta que debemos hacernos es: ¿cómo hacer que la IA sea responsable y ética? Afortunadamente, hay un creciente grupo de personas y empresas que se hacen esta pregunta.

Investigadores como Tufekci y DiResta son voces vitales. Grupos como el Center for Humane Technology están examinando cómo funciona la “economía de la adicción“. Organizaciones como el AI Now Institute de la Universidad de Nueva York están examinando las formas en que la IA impacta las libertades esenciales. Incluso elementos como Microsoft y empresas de nueva creación como Element AI están pidiendo que se regule la situación.

desafioOtros están remarcando la necesidad de más ingenieros y diseñadores de productos que tengan en cuenta la responsabilidad y la ética al construir la IA. Imagínate a un diseñador de aplicaciones sociales que pregunta: ¿Cómo puedo aumentar los beneficios y mantener a los usuarios seguros? La gente que crea medicinas adictivas y automóviles se hace estas preguntas; ¿por qué no los desarrolladores? Con esta idea en la cabeza, Mozilla, Omidyar Network, Schmidt Futures y Craig Newmark Philanthropies están liderando el Desafío de la Ciencia de la Computación Responsable, una iniciativa de 3,5 millones de dólares para integrar la ética en los planes de estudios de ciencias de la computación de pregrado.

Por último, cabe señalar que unos cuantos gobiernos también están empezando a moverse. En 2018, la oficina del alcalde de la ciudad de Nueva York anunció un control de vigilancia de la IA. Más recientemente, los gobiernos de Canadá y Francia anunciaron una iniciativa conjunta para examinar la intersección de la IA y la ética. Y, en Finlandia, el gobierno está capacitando al 1% de la población en los aspectos básicos de la IA, como el momento de su despliegue y las definiciones de términos como “aprendizaje automático” y “redes neuronales”.

A medida que la inteligencia artificial se hace más omnipresente, es fundamental fomentar una mejor comprensión pública de su impacto en la sociedad. Los robots gigantescos son buenos para una peli, pero no son representaciones exactas de cómo la IA puede y hace daño hoy en día. Tenemos que centrarnos en soluciones reales, como la planificación de una tecnología ética y responsable en la mesa de dibujo, no después de los hechos.

En resumen: Necesitamos anticipar y eliminar los prejuicios en la IA antes de que llegue a millones de personas.

captura de pantalla de 2019-01-19 17-58-36

Australia se une a Rusia y China

para socavar la seguridad de los usuarios y amenazar los derechos humanos

humanrights

Diciembre 2018 – El Parlamento australiano ha aprobado sorprendentemente una ley que permitiría a las fuerzas del orden obligar a las empresas a debilitar la seguridad de sus plataformas y garantizar el acceso a las comunicaciones digitales privadas. La legislación, conocida como el Proyecto de Ley de Asistencia y Acceso, socavará la seguridad de las plataformas de comunicaciones, lo que amenaza los derechos a la privacidad y la libertad de expresión. El Parlamento aprobó esta legislación antes de levantar la sesión para las vacaciones, a pesar de que numerosos miembros del Parlamento declararon que la legislación era defectuosa y debería ser enmendada.
La legislación permitiría al gobierno australiano emitir órdenes secretas para obligar a las empresas y proveedores a hacer “actos o cosas” y cumplir con las órdenes legales de proporcionar información. Esto podría significar garantizar el acceso a plataformas de mensajería como WhatsApp.

Este es un giro inesperado de los acontecimientos, y demuestra una alarmante falta de comprensión sobre cómo funciona la tecnología. En un intento miope de parecer duro contra el crimen, el Parlamento de Australia está socavando la seguridad de todos los australianos y de todos los que utilizan la tecnología en todo el mundo”, declaró Lucie Krahulcova, Analista de Políticas de Access Now. “En un momento en el que otros gobiernos debaten la revelación de vulnerabilidades y la necesidad de asegurar nuestro ecosistema en línea, Australia está optando por implementar debilidades a voluntad.”

Al socavar la seguridad digital de los usuarios, el Parlamento australiano está actuando en estrecha colaboración con los gobiernos que tratan de utilizar la tecnología para controlar a los ciudadanos. Es evidente que Australia está dando la espalda a la oportunidad de liderar el mundo en la protección de los derechos humanos, la seguridad digital y la libre circulación de la información. El uso de actualizaciones de parches como una forma de comprometer los sistemas es contrario a todas las reglas del libro de reglas de ciberseguridad. No se puede enumerar el impacto que esto tendrá en las empresas pequeñas y grandes. Sin duda, socavará la confianza de los usuarios en sus productos y servicios, no sólo en Australia sino en todo el mundo.

Lo bueno es que los miembros del Parlamento están de acuerdo en que el proyecto de ley es defectuoso y que debe ser enmendado y arreglado. Esperamos con interés poder trabajar con el Parlamento el año que viene, para asegurarnos de que todos los diputados comprendan plenamente este proyecto de ley y los derechos humanos a los que afectará“, dijo Krahulcova.

carnecruda

A %d blogueros les gusta esto: