Big Data:correduría y visulización de datos ¿con que fin?

                                 

        El término Big Data se utiliza para referirse a los sistemas informáticos que son capaces de almacenar datos a gran escala y a los sistemas, técnicas y procedimientos informáticos que en último lugar son empleados para identificar patrones recurrentes dentro de esos datos.

 

        El origen del término


        El término se suele emplear en español tal y como se popularizó en inglés y aunque su traducción más comprensible sería Datos Masivos en realidad no se refiere a los datos en sí sino a las tecnologías informáticas que permiten registralos, almacenarlos, analizarlos y/o visualizarlos.

        El origen del término en su actual connotación se atribuye a John Mashey, un informático y teórico estadounidense que en 1998 publicó un artículo titulado Big Data and the Next Wave of Infrastress Problems, Solutions, Opportunities en el que hacía referencia al estrés que iban a sufrir las infraestructuras físicas y humanas de la informática debido al tsunami de datos que ya se podía entrever y que resultaba inmanejable con las herramientas informáticas de gestión disponibles en ese momento.

        En aquella época Masley trabajaba en Sillicon Graphics, que era en aquel momento el gigante de los gráficos por ordenador que se utilizaban para efectos especiales en Hollywood y para la vigilancia mediante vídeo por parte las agencias de espionaje. De modo que ésta era una empresa más en Sillicon Valley que se ocupaba de nuevos tipos de datos y de grandes cantidades de ellos y por ello, tal y como ha señalado Francis X. Diebold, economista de la universidad de Pennsylvania, "probablemente el término se originó en las conversaciones de sobremesa en los almuerzos de Silicon Graphics a mediados de la década de 1990, en el que John Mashey ocupaba un lugar destacado".

        En el año 2013, Mashey señaló a un periódista del New York Times que investigaba los orígenes del término que la popularización del mismo empezó un poco antes de la publicación de su artículo, cuando a mediados de los años 90 buscaba una etiqueta corta para referirse a una serie de cuestiones y transmitir que los límites de la computación continuaban avanzando y cuando comenzó a emplearlo en los cientos de charlas que dió entre mediados y finales de los 90 a pequeños grupos de la la comunidad de alta tecnología del entorno de Sillicon Valley.

        Finalmente Big Data ha acabado haciendo referencia al almacenamiento y tratamiento de una cantidad de datos tal que supera la capacidad del sofware habitual para ser capturados, gestionados y procesados en un tiempo razonable.                                   

        El volumen de datos masivos crece constantemente. En 2012 se estimaba su tamaño de entre una docena de terabytes hasta varios petabytes de datos en un único conjunto de datos. Pero esto no ha hecho más que empezar, se estima que en los próximos cinco años ese volumen de datos que se traduce en dígitos binarios (uno de los sistemas de numeración con los que trabajan las computadoras) se duplicará y algunas cifras actuales muestran que a diario se realizan más de un billón de consultas en Google, más de 250 millones de tuits en Twitter, 800 millones de actualizaciones en Facebook, 60 horas de vídeos subidos por minuto en YouTube, 10.000 transacciones mediante tarjeta de crédito por segundo…generando todos éstos el correspondiente rastro digital.

        La mayoría de los artículos de prensa actualizados que buscan dar a conocer y explicar el concepto a la gente y, al mismo tiempo, concienciar de lo que supone, se refieren casi exclusivamente a la cantidad de datos que generamos las personas, aunque en realidad existan varias categorías que aluden a diversos origenes de los datos que no siempre provienen directamente de un "clic" en un teléfono móvil o en un ordenador o de la interacción directa de las personas con las tecnologías aunque en última instancia, siempre tengan que ver con ellas.

       Como ejemplo de ello el siguiente extracto de un reciente artículo del El País titulado ¿Que es eso del Big Data?

Cada clic es una confesión

"¿El objetivo? Predecir el tiempo, analizar parámetros de salud, mejorar la eficiencia energética y, sobre todo, vender más y mejor.

La ingente cantidad de información que producimos procede de un sinfín de dispositivos que forman parte de nuestra vida cotidiana. Con ellos emitimos una retahíla de datos que van conformando nuestros avatares digitales. Cada vez que clicamos en Amazon, ese gesto queda consignado. Cuando pagamos con la tarjeta la compra del supermercado, dejamos rastro de qué hemos comprado y a qué precio. Cuando realizamos las lecturas de los contadores de electricidad o del gas constatamos digitalmente el consumo que hacemos. Cuando opinamos en la Red, colgamos imágenes, realizamos compras online o utilizamos una app, el big data sabe un poco más de nuestros gustos. Lo mismo sucede cuando subimos a un avión, mandamos un paquete por mensajería, accionamos el GPS del coche o el sistema domótico de casa. O cuando llamamos a una empresa y nos dicen que, por seguridad, la llamada quedará grabada. O cuando nos recetan medicinas, nos ingresan la nómina o pagamos la hipoteca. ¿Se imaginan los ajustadísimos retratos que se podrían extraer de cada uno de nosotros optimizando el análisis de todos esos datos? De eso trata el big data."

        Así, algunas catalogaciones que se pueden realizar en función del origen de los datos y que incluyen tanto los generados por la interación directa de las personas en la web 2.0 o con cualquier otra aplicación que genere un rastro de datos en internet como por cualquier otro dispositivo con capacidad para dejar este tipo de rastro son las siguientes:

  • Generados por las personas: Enviar correos electrónicos por e-mail o mensajes por WhatsApp, postear en Facebook, tuitear contenidos o responder a una encuesta por la calle son algunas acciones cotidianas que crean nuevos datos y metadatos que pueden ser analizados. Por otro lado, las trazas de utilización en un sistema ERP, incluir registros en una base de datos o introducir información en una hoja de cálculo son otras formas de generar estos datos.

  • Transacciones de datos: La facturación, las llamadas o las transacción entre cuentas generan información que tratada pueden ser datos relevantes. Un ejemplo claro se encuentra en las transacciones bancarias: lo que el usuario conoce como un ingreso de X euros, la computación lo interpretará como una acción llevada a cabo en una fecha y momento determinado, en un lugar concreto, entre unos usuarios registrados, y más metadatos.

  • E-marketing y web: Son los datos que generamos al navegar por internet. Los niveles de interactividad permitidos con el surgimiento de la web 2.0 supusieron la ruptura de paradigma webmaster-contenido-lector de forma que los usuarios son al mismo tiempo creadores de contenido. Existen por ejemplo, herramientas con las que los movimientos de ratón quedan grabados en mapas de calor y que registran cuánto tiempo pasamos en cada página y cuando la visitamos.

  • Machine to Machine (M2M): Son las tecnologías que comparten datos con dispositivos: medidores, sensores de temperatura, de luz, de altura, de presión, de sonido… que transforman las magnitudes físicas o químicas y las convierten en datos. Existen desde hace décadas, pero la llegada de las comunicaciones inalámbricas (Wi-Fi, Bluetooth, RFID…) ha revolucionado el mundo de los sensores. Algunos ejemplos son los GPS en la automoción o los sensores de signos vitales en la medicina.

  • Biométrica: Son el conjunto de datos que provienen de la seguridad, defensa y servicios de inteligencia.Son cantidades de datos generados por lectores biométricos como escáneres de retina, escáneres de huellas digitales, o lectores de cadenas de ADN. El propósito de estos datos es proporcionar mecanismos de seguridad y suelen estar custodiadas por los ministerios de defensa y departamentos de inteligencia. Un ejemplo de aplicación es el cruce de ADN entre una muestra de un crimen y una muestra de otra base de datos.                                                                                                                                                                                        

        Big Data engloba diferentes sistemas de almacenamiento de datos (que no comentaré aquí pues aluden a especificaciones técnicas de las que poco puede entender quien no se maneje en términos informáticos muy especializados y por lo tanto, yo tampoco) y también diferentes sistemas de análisis de datos que en cambio si nos dan una noción de la finalidad e intención con la que los datos pueden ser analizados y visualizados.

  • Asociación: Permite encontrar relaciones entre diferentes variables. Bajo la premisa de causalidad, se pretenden realizar predicciónes sobre el comportamiento de otras variables. Estas relaciones pueden ser los sistemas de ventas cruzadas en los e-commerce.
  • Minería de datos (Data Mining): Tiene como objetivo encontrar comportamientos predictivos. Engloba el conjunto de técnicas que combina métodos estadísticos y de machine learning con almacenamiento en bases de datos. Está estrechamente relacionada con los modelos utilizados para descubrir patrones en grandes cantidades de datos.
  • Agrupación (Clustering): El análisis de clústeres es un tipo de minería de datos que divide grandes grupos de individuos en grupos más pequeños de los cuales no se conoce su parecido antes del análisis. El propósito es encontrar similitudes entre estos grupos, y el descubrimiento de nuevos conociendo cuáles son las cualidades que lo definen. Es una metodología apropiada para encontrar relaciones entre resultados y hacer una evaluación preliminar de la estructura de los datos analizados. Existen diferentes técnicas y algoritmos de clustering.

  • Análisis de texto (Text Analytics): Gran parte de los datos generados por las personas son textos, como e-mails, búsquedas web o contenidos. Esta metodología permite extraer información de estos datos y así modelar temas y asuntos o predecir palabras.

        El último de los pasos de Big Data es el relacionado con la visualización de datos o de los análisis realizados sobre ellos por medio de representaciones gráficas o visuales que permitan una comprensión más racional del volumen de datos. Muchas de ellas se basan en la utilización de combinaciones de colores y posiciones. Las siguientes imágenes muestran ejemplos de algunas de éstas visualizaciones.  

                  s.

 

        Existen múltiples empresas dedicadas exclusivamente a lo que se denomina correduría de datos: almacenamiento, análisis y representación o visualización de datos.

        Así, a mediados de 2014 la Comisión Federal de Comercio de EEUU dió a conocer un informe en el que proporcionó una lista de las principales empresas data brokers (como se las denomina) dedicadas globalmente a este negocio y del tipo de datos que suelen manejar para que los usuarios sepan a quién reclamar en el caso de que quieran solicitar la eliminación de datos y registros sobre ellos. A falta de saber si se ha ampliado la lista desde entonces, las compañías citadas en ese informe eran: Acxiom, Corelogic, Datalogix, eBureau, ID Anallytics, Intelius, PeekYou, Rapleaf y Recorded Future.

        Al mismo tiempo, esta Comisión urgió al Congreso de los EEUU a aprobar leyes que aseguren una mayor transparencia en este sector altamente lucrativo y potencialmente dañino y a "contener la marea de prácticas diseñadas deliberadamente para burlar la privacidad de los estadounidenses".

        Durante la presentación del informe, Edith Ramírez, la presidenta de dicha Comisión Federal informó de que los datos que poseen estas empresas son "obtenidos de muy variadas fuentes, desde redes sociales a censos oficiales, pasando por registros de ventas de algunas tiendas o registros de propiedad, de forma que si un consumidor quisiera hallar la fuente de un dato en su perfil debería navegar por un verdadero laberinto de datos de varias compañías". Al mismo tiempo, advirtió de "los posibles abusos por parte de los corredores de datos que, incluyendo a Facebook y Google, se han adherido a un modelo de negocios diseñado para recabar y usar todo lo que sea posible sobre nosotros y nuestros amigos, 24 horas por día siete días a la semana" solicitando la aprobación de legislación que ayudase a contener las prácticas de un negocio que se desenvuelve totalmente "en la oscuridad".

        Solo atendiendo a los datos de que disponen, los corredores de datos pueden, por ejemplo, categorizar a alguien como un consumidor con mal historial de crédito, o como una persona con problemas de salud que podrían afectar su desempeño laboral, etc.

La violación de la privacidad: el caso de Acxiom

                                                                                     

        Para ilustrar como funciona el negocio del Big Data y como afecta a la privacidad de las personas utilizaremos un ejemplo real:

        En febrero de 2013, Facebook acordó la cesión de la información personal de sus usuarios con Acxiom y otras empresas corredoras de datos.

        Acxiom posee unas 1.500 trazas de datos de más de 500 millones de usuarios de internet. Ha sido descrita como "una de las mayores empresas de las que nunca has oído hablar.  Así, el negocio real de esta compañia y de otras similares consiste en la venta posterior de los análisis de datos que realizan. De esta forma, sus principales clientes son empresas de servicios financieros, seguros, servicios de información, comercialización directa, medios de comunicación, comercio minorista, bienes de consumo envasados, tecnología, industria automotriz, de salud , de viaje, y las industrias de telecomunicaciones, así com también el propio gobierno.

        En un documental titulado "Los persuasores", Acxiom fue retratada como el mayor procesador mundial de datos de consumidores. Mediante técnicas de clustering como la que antes mencionamos, esta empresa ha llegado a identificar 70 tipos de consumidores usando su programa de análisis PersonicX. Los datos nuevos son transformados, analizados y cruzados para incluir a los consumidores en alguno de esos 70 grupos o para descubrir nuevas tipologías. Los análisis de PersonicX son considerados un "resumen de indicadores de estilo de vida, intereses y actividades", procediendo al principio estos datos de hechos reales y de acontecimientos vitales y no tanto de acttividades virtuales y llegando a ser capaz de precedir más de 3.000 reacciones ante estímulos de estas tipologías de consumidores.

        En el libro "Los datos y Goliat" editado en 2015, el experto en privaciad estadounidense Bruce Schneier escribió que Acxiom vende a empresas listas de consumidores con etiquetas tales como: " heredero potencial", "adulto con padres de alto nivel ", así como las direcciones de los hogares con etiquetas como "enfoque diabético " o " alto en necesidades ".

        En varios documentos y artículos que revisé en internet me encontré con la afirmación de que "los datos son el nuevo oro". He podido hacerme una idea bastante completa de lo que ésto quiere decir al leer la entrevista que El País realizó en agosto de 2013 a Viktor Mayer-Schönberger, profesor de regulación y gestión de internet en el Internet Institut de la Universidad de Oxford, y uno de los expertos más reconocidos internacionalmente en el mundo de los datos masivos, coincidiendo con la publicación de su libro "Big data, la revolución de los datos masivos", que escribió conjuntamente con Kenneth Cukier, experto en edición de datos de The Economist.

        En dicha entrevista este experto aseguraba que los datos masivos están más presentes en nuestra vida de lo que pensamos y que la forma de utilizarlos puede cambiar nuestra mentalidad de la causa a la correlación, al tiempo que expresaba su preocupación por el hecho de que el análisis de datos masivos pueda ser usado para castigar a las personas basándose en predicciones.

        Algo que me ha llamado la atención en esta entrevista es la explicación del enfoque en el que se considera que un gobierno puede fomentar la economía ofreciendo de forma abierta datos de los que dispone: los datos serían considerados una especie de incentivos para la creación de nuevas formas de negocio innovativas y el impulso de startups en tiempos de austeridad como los que ha traído la crisis. Esto sería: en lugar de dar incentivos y subvenciones económicas a las empresas el gobierno pone a su disponibilidad datos masivos de ciudadanos que están en su poder, de forma que las empresas pueden utilizarlos para realizar análisis de consumo y mercado y crear así productos que tienen altas probabilidades de ser consumidos, de forma que en última instancia se estarían estimulando ciertos negocios y la economía en general.

                               

        Al mismo tiempo, este experto habla sobre el hecho de la recolección de datos comienza a ser tan barata que resultará más rentable analizar un conjunto mucho más grande de datos e intentar extraer "conocimiento" de ellos que establecer una muestra para estudiarlo y además permitiría realizar estudios más precisos, baratos y también más inesperados.

        Pero este tipo de estudios son de correlación y no de causalidad, algo a lo que en realidad estamos más acostumbrados, a buscar causas en todo, por lo que esta nueva forma de proceder implica y necesita una nueva mentalidad que pasa por aceptar resultados en la correlación, sin entender completamente el por qué (la causa). El problema puede surgir si los análisis son utilizados para establecer relaciones causales pudiendo llevar a un "determinismo de los datos" en el que, por ejemplo, se utilicen para castigar a las personas basandose en predicciones. Una idea similar era la que conformaba el argumneto central de la película Minority Report en la que un equipo de policía era capaz de anticiparse a los crímenes realizando prediciones al analizar datos sobre determinadas personas.

        Según Viktor Mayer-Schönberger "la lección clave que nuestra sociedad y todas las personas que toman decisiones -especialmente los que se encuentran en el gobierno- necesitan aprender es que los datos masivos pueden mostrar correlaciones, el qué, pero no causalidad, el porqué. Una vez que hayamos entendido esta lección (y por lo tanto la limitación inherente a los datos masivos), creo que seremos capaces de cosechar mucho del tremendo potencial de los datos masivos sin exponernos demasiado a los riesgos de su lado oscuro".

        Es frecuente que la gente que ignora los riesgos de dejar un rastro de datos o información personal directamente o a través de los dispositivos que usan se asusten cuando adquiere noción y conciencia de estos riesgos. A nivel usuario por ejemplo, Google Location History, es un sevicio de Google que registra las ubicaciones en las cuales ha estado un usuario que lleva el móvil encima, y con el servicio de localización activado (que por defecto lo está en los terminales con Android). Al acceder a él muestra un mapa con las rutas que ha seguido el usuario, con la hora de llegada y salida de cada ubicación.

        Aún así, mi opinión personal es que el peor de los peligros no está reprsentado por este tipo de usos de Big Data, es decir, que los datos sean utilizados para crear, ofrecer y vender productos o bienes de consumo, aunque ésto tampoco me guste, sino que sea utilizado por los propios Estados u otros organismos para realizar predicciones o categorizaciones de ciudadanos en función de un exhaustivo análisis de sus datos y situaciones personales que sirvan para encasillar a las personas, aumentar más aún determinadas situaciones de "guetificación" o discriminación, impedir la promoción y reinserción social, etc.

        Un ejemplo de esta forma posible de utilización de los datos desde instancias estatales para la creación de negocios y discursos políticos de lo más perverso y peligroso lo proporciona Loïc Wacquant en Las Cárceles de la Miseria, una obra del año 1999 que tuve la oportunidad de leer hace tiempo y a la que ya me referí en el trabajo sobre "Riesgos y Promesas de las nuevas Tecnologías de la Información" para hablar de la necesidad y conveniencia de conocer lo que son los Think Tanks o grupos de presión. Precisamente, en esta obra Loïc Vaquant explica los mecanismos y discursos que alguno de ellos utilizó para potenciar la implantación de las políticas de tolerancia cero hacia la violencia (una violencia y criminalidad que no existía ni aumentaba de la forma en que éstos aseguraban) en Nueva York durante los años en que Rudolph Giuliani estuvo al frente de la alcaldía y de como esas políticas ultraliberales fueron luego exportadas a Europa y acogidas con los brazos abiertos en varios países porque detrás de ellas también se encontraban ciertos negocios muy rentables (seguridad privada, carceles privadas...)

        Aunque no se trata todavía de la utilización de Big Data, Wacquant denuncia la criminalización de la pobreza y la creación de un Estado Penitencia en detrimento del Estado de Bienestar a través de la gestión informática de datos de personas y el traspaso y cruzamiento de éstos entre organismos que atienden a cometidos y objetivos totalmente diferentes con el fin de realizar predicciones, por ejemplo, sobre la tendencia a la criminalidad de ciertas poblaciones o personas. En el caso de Francia Wacquant explica:

"En Francia, las poblaciones y los barrios púdicamente calificados "en dificultades" están siendo atrapados en una "tenaza informática" que autoriza una vigilancia estrecha y por lo tanto un mayor control, por un lado por parte de los servicios sociales y por el otro de la policía y los tribunales. Varios consejos generales que, desde la ley de descentralización de 1983, son responsables de la acción social (el aspecto de inserción del RMI [Salario Mínimo de Inserción], la protección materno-infantil, la ayuda social a la infancia y los ancianos, etc) han creado ya un expediente departamental único sobre los individuos y los hogares que reciben ayudas, mediante el paquete de programas informáticos ANIS.

En éste, la Dirección de Prevención y Acción Social elaboró una función suplementaria que permite trazar "tipologías" de las personas y los hogares asistidos, de acuerdo con apreciaciones subjetivas formuladas por el trabajador social, tales como "dificultad psicológica", "estado de dependencia" (expresado, admitido), "dificultad para realizar acciones de la vida cotidiana" e incluso "dificultad para la integración social". La meta confesa de esas tipologías es trazar cartografias sociales del departamento que permitan identificar las zonas de fuerte concentración de poblaciones dependientes y difíciles. . Varias asociaciones, entre ellas la Liga de los Derechos del Hombre, El Colectivo Informática, Archivos y Ciudadanía y el Colectivo por los Derechos de los Ciudadanos frente a la Informatización de la acción social, a las que se unieron algunos sindicatos de trabajadores sociales, reclamaron ante la Comisión Nacional de Informática y Libertades (CNIL) que se cancelara la autorización por el uso del paquete de progamas empleados en la elaboración del expediente único y las tipologías aludidas. La comisión no consideró adecuado acceder a esta demanda, aunque en su informe de actividades de 1994 subrayó su "gran temor ante la posibilidad de que se elabore un archivo global de las poblaciones desfavorecidas y, por tanto, una especie de cartogafía de la exclusión basada en la definición de perfiles individuales o familiares de precariedad", susceptible de reforzar la estigmatización y la dicriminación territorial de los más indigentes".

A la conexión de los archivos sociales en el nivel departamental responde la creación de un gigantesco archivo nacional de contravenciones, delitos y crímenes. Autorizado en 1995 por la ley de orientación y programación relativa a la seguridad, el "sistema de tratamiento de la información criminal", o STIC, está destinado a reagrupar el conjunto de los datos informatizados sobre las transgresiones a la ley recogidos por los servicios policiales: "archivo central" de la Dirección de Libertades Públicas del Ministerio de Interior, "archivo general de antecedentes" de la Prefectura de Policía de París, archivos locales que catalogan las intervenciones de los servicios en las provincias y por último "archivo de investigaciones criminales". También en este caso, con el pretesto de racionalizar el trabajo de investigación, se crean los medios de acumular datos detallados sobre los habitantes de los barrios pobres, que son los más directamente sometidos a la vigilnacia policial, porque ese archivo único incluiría no sólo a los condenados sino también a los sospechosos, las víctimas ylos testigos de todos los casos tratados por la policía y por tanto a una buen parte de los parientes y vecinos de los "clientes" del aparato policial y judicial, y esto por un período de cinco a cuarenta años según el objeto de la acusación. El sindicato de la magistratura destaca que su caracter exhaustivo, sus prolongados plazos de conservación que anulan el "derecho al olvido" y la utilización de la noción policial (y no jurídica) de "acusación" en un procedimiento hacen del STIC un verdadero "archivo de población". Según un recuento efectuado por la Liga de los Derechos del Hombre, el uno de enero de 1997 ya contenía dos millones y medio de individuos "acusados", otras tantas víctimas de delitos materiales y medio millón de victimas morales, para un total de 6´3 millones de infracciones. [...]

Es cierto que la CNIL no autorizó su consulta en el caso de "todas las personas cuyo comportamientoeitno es susceptible de generar peligros para otros", como slicitaba el Ministerio de Interior, pero es como si lo hubiera hecho, dado que dio su acuerdo a las misiones de policiía administrativa o de seguridad, cuando su naturaleza o las circunstancias particulares en que deben desarrollarse entrañen riesgos de atentado al orden público o a la seguridad de las personas"; en otras palabras, en unas condiciones cuya evaluación se deja enteramente a juicio de las fuerzas del orden, que dispondrán de hecho de la posibililidad de revisar el STC como les venga en gana.

La etapa siguiente en el estrechamineto de la vigilancia informatizada de las poblaciones precarias consistirá en cruzar archivos sociales y archivos policiales, por ejemplo, apra aplicar con más efiacia las decisiones de suspensión de los subsidios familiares en caso de delincuencia reiterada de un adolescente (es lo que sucede con varias decenas de miles de hogares anualmente) o para encontrar a tal o cual testigo o sospechoso siguiendo las ramificaciones de las ayudas sociales. Antes de cruzarlos, a su vez con los archivos fiscales: en diciembre de 1998, el gobierno de Jospin hizo que la Asamblea Nacional votara a hurtadillas una enmienda al proyecto de ley de finanzas de 1999 por la que se autoriza a Hacienda a utilizar el NIR (numero de inscripción en el Repertorio Nacional de Identificación de las personas físicas, comúnmnete conocido como "numero de seguridad social") para cruzar los archivos sociales y fiscales. Hay que recordar que en la época de los cuarenta, el NIR tenía un código específico par aidentificar separadamente a los "indígenas musulmanes" y los "judíos musulmanes", los "extranjeros judíos" y los "extranjeros refugiados judíos". bien podría ser que, so pretexto de eficiencia administrativa, mañana fuera utilizado para catalogar otras "poblaciones con problemas" como las que residen en los "barrios sensibles". [...]

Aquí podemos ver muy concretamente de qué manera la preocupación por el binestar (físico, moral y social) puede ser útil al objetivo de control de las poblaciones tuteladas por el Estado de acuerdo con los análisis clásicos de Foucault sobre la "policía" como técnica de gobierno de los hombres."

                                          

        Así, si intentamos imaginar usos parecidos y aún más perversos que puedan derivarse de la utilización de datos personales por parte de los corredores de datos por medio de Big Data es fácil entender a que se refieren algunos expertos cuando dicen que los datos son el nuevo oro de nuestro tiempo. El problema está en que en muchos países no parece que exista por el momento ninguna legislación que pueda ponerle verdadero coto a estas prácticas y además los que tienen intereses en este negocio pugnarán para que no se apruebe ninguna, de forma que hoy por hoy la utilización de los datos y de la información que proporcionan puede ser prácticamente cualquiera que queramos o seamos capaces de imaginar.

        Supongo que a estas cosas entre otras muchas que ahora no entrevemos se refiere Cory Doctorow, un escritor, periodista y tecnoactivista canadiense cuando en la entrevista que le realizó eldiario.es en mayo de 2015 afirma que “En veinte años todos nuestros problemas estarán relacionados con Internet”.

        En el caso concreto de España, en cuanto a la legislación actual de referencia, no existe en la Ley Orgánica 15/1999 de 13 de diciembre de Protección de Datos (LOPD) regulación específica para el concepto de 'big data', aunque sí existe una limitación explícita al cruce de datos, con el fin de evitar que una determinada información se pueda utilizar para relacionarla e identificar a un determinado usuario, protegiendo así su privacidad. Se intenta así que los datos sean utilizados para el objeto para el que fueron captados pero persiste un vacío legal con los datos obtenidos con “disociación de la identidad desde su origen” que quedan excluidos de la regulación de la LOPD.

          En conclusión, una vez más parece que el problema radica en los usos que realizamos de las TIC y no tanto en las TIC en sí mismas. Sin embargo, en mi opinión, conocer lo que es Big Data tampoco debe servir para ser "tecno-pesimista" pero si para reflexionar sobre los usos y prácticas para los que está sirviendo o puede servir y para reclamar la creación de legislaciones que velen por el uso ético de todos nuestros datos. Es decir se trata de comprender los avances tecnológicos y sus ventajas pero al mismo tiempo fomentar que determinados usos de estos no perjudiquen a las personas.

 

WEBGRAFÍA UTILIADA

http://es.wikipedia.org/wiki/Big_data

http://www.informatica-hoy.com.ar/aprender-informatica/Que-es-Petabyte.php

http://elpais.com/elpais/2015/03/26/buenavida/1427382655_646798.html

http://bits.blogs.nytimes.com/2013/02/01/the-origins-of-big-data-an-etymological-detective-story/?r=0

http://www.eldiario.es/turing/Big-data_0_161334397.html

http://en.wikipedia.org/wiki/Acxiom

http://www.eldiario.es/hojaderouter/ilegales/big_data-privacidad-legislacion-datos_6_317828225.html

http://www.pbs.org/wgbh/pages/frontline/shows/persuaders/view/

https://www.democraticmedia.org/

http://www.eldiario.es/catalunya/Cory-Doctorow-problemas-relacionados-Internet_0_392661817.html