Big + Data

El escenario actual de Internet abre un nuevo paradigma en computación porque a una agrupación de ordenadores interconectados y en funcionamiento permanente no se le puede ya considerar meramente una máquina de Turing (que calcula y se detiene) sino algo nuevo que engulle permanentemente cantidades ingentes de información, la somete, permanentemente también, a cálculos, y elabora predicciones y análisis usando para ello modelos matemáticos y modelos de racionalidad para la toma de decisiones.

Este nuevo uso de la computación se conoce como fenómeno “Big Data” y ha sido aplicado con éxito notabilísimo a realizar predicciones hasta ahora impensables. Por ejemplo, Google lo usa para predecir la evolución de epidemias mediante el análisis de los términos de búsqueda que los usuarios introducen en su buscador. Quizás el más notable de los éxitos del Big Data haya sido el cálculo político del estadístico Nate Silver que llegó a clavar los resultados de Obama en las elecciones presidenciales de 2012 usando técnicas de minería de datos propias del Big Data en lugar de las clásicas encuestas sociológicas a las que superó de forma sorprendente en fiabilidad.

Sin embargo el siglo XX no parecía augurar este exitoso escenario a comienzos del siglo XXI. A comienzos del siglo XX sucedió una crisis de fundamentación en la matemática como consecuencia de los trabajos de Kurt Gödel que propiciaron el nacimiento de la computación por parte de Alan Turing para demostrar que la incompletitud que Gödel demostró en la matemática tenía como consecuencia la incomputabilidad. Dicho en pocas palabras: no todo es calculable.

Si no todo es calculable ¿cómo es que gracias al cálculo matemático hemos llegado a introducirnos con éxito en el escenario más escurridizo de la matemática, el comportamiento humano?

Pues porque donde decimos “cálculo” en realidad estamos diciendo mucho más. El fenómeno Big Data no hace sencillas sumas y restas con los datos como los que nosotros hacemos al calcular cuánto dinero nos va a quedar a fin de mes. Para hacer una predicción sobre el comportamiento humano los creadores de cálculos Big Data tienen que crear simulaciones de agentes humanos y ver cómo se comportan en el escenario complejo que analizan. Y aquí es donde está el problema porque no queda claro qué conjunto de valores y prioridades tiene el agente humano simulado en dichos cálculos.

Lo de simular agentes humanos no es nada nuevo. La ciencia económica basa sus predicciones en un agente humano modelado según la Teoría de la Acción Racional, una simplificación tal de la racionalidad humana que Amartya Sen ha llegado a calificar de imbécil social a la simulación usada por la economía que describe un ser capaz de hacer un cálculo de utilidad sobre qué le conviene, es decir, de aplicar una racionalidad instrumental, pero incapaz de relacionarse con otros de modo cooperativo, algo que sucede permanentemente. El agente humano simulado por la economía es un fracaso. No recoge la diversidad del comportamiento humano.

Pues bien, la misma matemática que Gödel nos enseñó que no era completa, los mismos ordenadores que Turing nos enseñó que no eran capaces de calcularlo todo y la misma teoría racional que Amartya Sen ha calificado como una imbecilidad se han combinado en el fenómeno Big Data para crear unos modelos de simulación de la conducta social humana con un increíble poder predictivo. ¡Bingo! Con piezas defectuosas hemos construido un Fórmula-1 que gana carreras. Donde la ciencia económica con su deficiente modelo de racionalidad ha fallado parece que el Big Data está acertando: la primera es incapaz de predecir nada y la última parece ser capaz de predecirlo todo.

¿Qué ha cambiado para que ahora sí se pueda calcular la conducta social humana? ¿Es sencillamente asunto de que analizando más datos llegamos a mejores conclusiones o es que se han aplicado mejores modelos de racionalidad a los cálculos Big Data?

Nathan Jurgenson en su reciente artículo View From Nowhere analiza esas preguntas y acusa al fenómeno Big Data de volver a resucitar al monstruo que creíamos muerto y enterrado de la “objetividad universal”, es decir, la supuesta existencia de una metodología neutra que sin ningún tipo de sesgo analice fríamente petabytes de datos y produzca certeros análisis con la misma naturalidad con la que el gusano produce la seda. El pensamiento dominante en algunos cientificos de datos supone una vuelta al Positivismo, una vuelta a olvidar los sesgos sociales descubiertos en la ciencia por Thomas Kuhny también un retroceso al negar la carga teórica de la observación.

Además del peligro de un nuevo positivismo que indica Jurgenson, esta nueva tendencia supone, desde mi punto de vista, dos recaídas en sendos temas que parecían más o menos superados como consecuencia del pensamiento desarrollado en el siglo XX y que explicaré en futuras entradas de este blog. Por una parte lo racional vuelve a desplazarse desde el ámbito ontológico al epistémico tal como en su día denunció Heidegger (por eso la informática nace con Turing como ciencia y ahora mayoritariamente se habla de ella como tecnología). Por otra parte una racionalidad surgida en el siglo XX de base débil y que permite recoger todos los matices y la diversidad humana es sustituida en el escenario Big Data por un pensamiento analítico totalizador con indiscutible éxito predictivo pero con nuevas consecuencias alienantes.

Por si éramos pocos, la tendencia que denominamos “Internet en la nube” ha llegado al Big Data y ya se empiezan a ofrecer a la sociedad complejas tecnologías de análisis de datos como productos fácilmente consumibles (analytics as a service). Toda la familia de los “analytics” (desde Google, a Facebook pasando por Twitter) permite interpretar con unos pocos clicks los gigabytes de información recopilada de nuestras interacciones sociales y ofrecérnosla como resultados con un aspecto científico impecable e ilustrado con hermosos diagramas de todo tipo.

Y de este pastel los smartphones son la guinda. Dotados con cada vez más cantidad de sensores nos empiezan a permitir recopilar datos de nuestro entorno, incluso de nuestras constantes vitales, por lo que ya están apareciendo aplicaciones (Apps) que simulan ser un experto capaz de interpretarnos qué significa toda esa información y advertirnos de un riesgo inminente.

Esta generalización del consumo de Big Data solo empeora la situación pues propicia la recepción acrítica por parte del público de esta nueva versión de la vieja racionalidad instrumental. El público ha sido adiestrado para delegar las decisiones en el experto (sea este humano o simulado) y se le convence de la fiabilidad del experto con incontestables diagramas y cifras que muestran una realidad que no tiene capacidad de criticar y acepta dócilmente, convencido de que las “nuevas tecnologías” son logros de cálculo gracias a la potencia de las nuevas máquinas.

Los árboles de la tecnología le impiden al consumidor de estos productos ver la maraña conceptual que se le está presentando aunque sea con una estética impecable. Si el smartphone me dice que se acerca la gripe, que Obama ganará las elecciones o que podría tener un infarto pues eso significa que esa es la realidad, ese es el mundo en el que vivo. Punto y final. Y lo más interesante es que luego la gripe llega, Obama gana y aunque no te dé el infarto se te ha avisado de un riesgo, con lo que la tecnología ha cumplido su misión.

Riesgos, expertos, análisis y predicciones. Un cocktail que puede ser muy venenoso pero con el que tenemos que acostumbrarnos a convivir. Vivimos en la “sociedad del riesgo” como muy bien ha explicado Ulrich Beck, en una sociedad de simulación del conocimiento experto, como ha explicado Axelrod y en una sociedad generadora de incertidumbre, como explica Sven Ove Hanson. Ante este escenario tan retorcidamente complejo no podemos aplicar un modelo de racionalidad tan simple como el actor racional del modelo económico que tiene capacidad de calcular qué le conviene. Nuestra sociedad es tan compleja que queda fuera de nuestra capacidad calcular qué nos conviene. De hecho probablemente nunca lo hicimos. Es posible que, como comentan Gerd Gigerenzer y Jose Francisco Álvarez nuestra racionalidad sea mucho más heurística de lo que nos han contado y completamente acotada: decidimos con información parcial, incompleta y en constante cambio. Decidimos con mecanismos biológicamente creados, no matemáticamente formulados. Hacer un modelo matemático de esa realidad evolutivamente creada puede ser una tarea monumental aunque hay ya intentos de avanzar en esa línea, como los de Gregory Chaitin y su idea de modelar la vida como software en evolución.

Si modelar la biología es difícil, hacerlo con la racionalidad humana parece una tarea heróica. Por eso es por lo que el Big Data ha escogido aparcar la creación de nuevos modelos de racionalidad y aplicar los conocidos modelos económicos a ingentes cantidades de datos. Y funciona. O parece que funciona. Pero no conocemos cómo ha sido cargado teóricamente el experto que llevamos simulado en nuestro smartphone o que interpreta nuestras interacciones sociales. Tampoco solemos saber cómo se ha construido el riesgo del que se nos avisa. Se nos pide un acto de fe tecnológico que la mayoría de la gente, cegada por la luz celestial de las “nuevas tecnologías” no tiene inconveniente en conceder. Aceptamos como experto al que se nos presenta como tal. Aceptamos que si ese experto dice que tenemos un riesgo es que efectivamente estamos en peligro. Y si el experto dice que hay un 20% de probabilidades de que nos suceda algo no cuestionamos su método sino que pasamos a decidir si aceptaremos ese nivel de riesgo o no. El experto puede fácilmente crear un escenario de consentimiento inducido máxime cuando es una aplicación informática que habla un lenguaje de gráficos y estadísticas. Cautivo y desarmado el ejército ciudadano, el experto ha alcanzado sus últimos objetivos sociales, que aún no sabemos si son describir la realidad, predecirla o construirla. Mientras no conozcamos los modelos de racionalidad aplicados en las simulaciones expertas de la conducta humana no sabremos si los supuestos exitos predictivos son logros de la ciencia social o profecías autocumplidas.

Esta situación que estamos describiendo queda perfectamente explicada en el número de junio de 2008 de la revista Wired titulado The End of Science (El final de la Ciencia) donde en el artículo The Petabyte Age se indica que estamos ante un nuevo paradigma que no es de base experimental ni idealista sino una especie de tercera vía de naturaleza computacional:

“Scientists have always relied on hypothesis and experimentation. Now in the era of massive data, there’s a better way”, o “Solving scientific problems used to require grand theories. Now it’s just a matter of crunching the numbers.”

Los Estados no han sido ajenos a los éxitos predictivos de estas tecnologías y a sus usos como mecanismos de intervención y control social estableciendo programas secretos de recopilación ilegal de datos personales a sabiendas de las posibilidades que ofrece su análisis. Esto abre el camino a nuevos estudios sobre las relaciones de poder en este escenario de nueva racionalidad computacional de carácter positivista.

Por otra parte, ¿podemos seguirnos permitiendo el lujo de educar a la gente solo en competencias tecnológicas pensando que la mayoría de ellos no quieren pensar y lo que quieren es solamente una App que les solucione los problemas?

Si convertimos al ciudadano en mero consumidor de tecnología, incapaz de criticar los métodos que se usan para hacer analítica de datos estaremos repitiendo el escándalo sucedido en la economía con la fórmula Black-Scholes, una fórmula que parecía capaz de predecir el comportamiento de los “derivados”, esos nuevos tipos de productos financieros que en principio produjeron un crecimiento exponencial de la actividad económica y que, como era una descripción falsa de la realidad, produjo el colapso financiero que vivimos desde 2008. La fórmula matemática Black-Scholes fue la justificación matemática de una teoría que se probó falsa. Modelar matemáticamente el comportamiento de un producto financiero o de una sociedad no conduce necesariamente a una descripción certera de su comportamiento.

Considero necesario solucionar la falta generalizada de crítica sobre la racionalidad aplicada a la interpretación de los datos masivos elaborada por la nueva ciencia de datos a la que denominamos Big Data, así como iniciar programas específicos de investigación sobre dicha racionalidad de modo que se pueda contrarrestar un nuevo positivismo de corte computacional.

(Fuente: http://cienciasucia.com/)

¿ Por qué la colaboración online ?

Hay que reconocer que la riqueza expresiva de la colaboración presencial, offline, aún no está disponible usando tecnologías de comunicación online en Internet. El lenguaje corporal, la expresión facial, el tono de voz, incluso el contacto físico, son ingredientes de un buen mecanismo de colaboración de grupo.

Hay, sin embargo, ciertas características de la colaboración online que la convierten en la mejor elección en la mayoría de los casos.

En primer lugar, la colaboración online permite encontrar a las personas adecuadas para cada trabajo de manera rápida y eficiente, algo que en raras ocasiones se produce en la colaboración offline, en la cual estamos limitados a usar los colaboradores “a mano” o a emplear semanas o hasta meses hasta conseguir un grupo presencial adecuado. Estas ventajas de la colaboración online pueden ser explotadas para dotar al grupo de una variedad cognitiva que escale hasta un grado imposible de alcanzar en la colaboración presencial.

Por otra parte, la forma de aportar comentarios sobre el trabajo de otros marca una gran diferencia en favor de la colaboración online ya que los comentarios online suelen ser más elaborados que la improvisación propia de una conversación presencial y con la ventaja de que en una lectura online de comentarios podemos elegir ignorar algunos, centrarnos en contestar otros y después volver atrás a reflexionar sobre los comentarios ignorados, algo que no es posible en una conversación presencial.

Una tercera ventaja de la colaboración online es la modularidad. Gracias a esta característica se puede diseñar una arquitectura de participación que permita “microcontribuciones” y que, por tanto, tenga poco coste, lo cual es un gran incentivo a la participación y un elemento decisivo en la recopilación de informaci

Aprendizaje Expandido: Educación medieval y redes sociales

Proponemos aquí una metodología educativa pensada para explotar las herramientas sociales propias de la Web 2.0 pero basada en el método escolástico usado en las universidades europeas a partir del siglo XIII a la que llamaremos “aprendizaje expandido“.

La metodología permite impartir cursos en forma presencial, online o semipresencial y hace uso de los conceptos que han demostrado su eficacia en la creación de conocimiento en Internet: el uso de wikis para consolidar el conocimiento y generar debates; el libro electrónico, cuyo coste de fabricación es prácticamente nulo, y la curación de contenidos, que permite proporcionar al alumno recopilaciones de materiales online gratuitos y de calidad.

Las redes sociales juegan un papel de divulgación de las actividades de las comunidades que se crean en esta plataforma y sirven al alumno para localizar expertos que puedan aportar materiales y opiniones a los trabajos elaborados por el alumno.

Antecedentes

Nuestro modelo es una reinterpretación desde la web social del sistema de formación universitaria medieval que incorporaba el debate como un elemento esencial (tal como recoge Alex J. Novikoff en su libro “The Medieval Culture of Disputation“) y que daba cabida a:

  1. Las tesis de una autoridad en la materia (lectio)
  2. El cuestionamiento de la autoridad por los alumnos mediante la elaboración de tesis personales
  3. El debate abierto para confrontación dialéctica entre tesis enfrentadas
  4. La divulgación al publico general del debate académico
  5. La consolidación en forma de textos del conocimiento alcanzado tras los debates

Lectio

En esta fase del aprendizaje se procedía a la lectura de un texto de alguno de los autores reputados en la época (Boecio, Aristóteles o simplemente la Biblia).

Meditatio

se procedía a ampliar el tema tratado en el texto leído, bajo la dirección del maestro

Quaestio

Fue Pedro Abelardo quien lo utilizó por primera vez al comparar las sentencias de los Padres en el Sic et Non. “Del desacuerdo que parece haber entre algunas (de las sentencias distintas de los Santos Padres) se produce la cuestión”1)

Disputatio

La elaboración de los distintos pasos en que se articulaban las quaestiones dio lugar a la DISPUTATIO, en la que se consolida en el método dialéctico. Se independizaron de las lectio. Las había ordinarias (frecuentes y sobre textos), y solemnes, en épocas señaladas del año, dos o tres veces a lo largo del curso, y en presencia de todos los maestros y alumnos de la Universidad, y que versaban sobre cualquier cosa (quodlibet, de quolibet). De ahí las quaestiones disputatae y las quaestiones quodlibetales.

El método que siguen los filósofos de la Edad Media no es solamente, como en Aristóteles, la deducción, la intuición racional, sino que además es la contraposición de opiniones divergentes. Santo Tomás, cuando examina una cuestión, no solamente deduce de principios generales los principios particulares aplicables a la cuestión, sino que además pone en columnas separadas las opiniones de los distintos filósofos, que son unas en pro y otras en contra; las pone frente a frente, las critica unas con otras, extrae de ellas lo que puede haber de verdadero y lo que puede haber de falso. Son como dos ejércitos en batalla; son realmente una reviviscencia de la dialéctica platónica. 2)

Así explica Lawn los procedimientos por los que se realizaban las diferentes clases de disputatio:

Summa

Versión escrita de los debates orales. Son famosas las Summas Teológicas de Tomás de Aquino. La Summa, escrita en latín, está formada por cuestiones sobre el tema tratado, que luego se dividen en artículos que buscan responder a una serie de preguntas. Los artículos tienen casi siempre la misma estructura: una pregunta inicial (que expresa normalmente lo contrario de lo que piensa Tomás de Aquino); luego se enuncian argumentos u observaciones que irían en contra de la tesis propuesta (objeciones), luego uno (a veces varios) a favor (sed contra), después en el cuerpo principal se desarrolla la respuesta (responsio); finalmente se contestan una a una las objeciones (y a veces también los que han sido presentados como argumentos a favor).3)

Debates públicos

Como indica Lawn , las disputatio se hacían en presencia de público como hemos comentado arriba, por lo que el componente de divulgación era intrínseco al de docencia.

Reinterpretación para la Web 2.0

Implementamos los mismos principios pero en un escenario de educación online, abierta, multimedia y colaborativa disponible con las tecnologías de la información actuales.

Idea medieval Reinterpretación en la web 2.0
Las tesis de una autoridad en la materia Clase magistral. Libro publicado. Recopilación de enlaces a material disponible en Internet. Entrada en un wiki.
El cuestionamiento de la autoridad por los alumnos mediante la elaboración de tesis personales Redacción de un texto en un blog personal. Redacción de un artículo en un wiki. Esquema de la argumentación en una serie de tuits en Twitter.
El debate abierto para confrontación dialéctica entre tesis enfrentadas Foro de debate. Grupo en Facebook. Páginas de debate por cada artículo de un wiki.
La divulgación al publico general del debate académico El hecho de que el foro dea de lectura libre o que el grupo de Facebook sea abierto contribuye a que el debate sea público. Publicitar la actividad del foro en Twitter daría aún más visibilidad a los debates. Las páginas de discusión de los wikis también pueden usarse para crear un debate por cada artículo del wiki.
La consolidación en forma de textos del conocimiento alcanzado tras los debates Consolidación de las conclusiones alcanzadas tras los debates en un artículo de un wiki. Publicación de los artículos de conclusiones del wiki en forma de libro electrónico.

Esta adecuación actual del método escolástico ha sido también sugerida por John Taylor, director del proyecto “Filosofía en la Educación”:

El filósofo Alejandro Piscitelli indica que la generación que vive la Web 2.0 es post-Gutembergiana, esto es, el paradigma de las tesis de autoridad fosilizadas en libros les es ajeno ya que Internet y las redes sociales han puesto sobre la mesa una reedición de la oralidad medieval y que, por tanto, impone nuevos modelos educativos.

  • “La oralidad secundaria que encarna Internet es una continuidad y profundización del mundo de la oralidad primaria pregutembergiana.“
  • “El libro “natural” con su texto “estabilizado” es característico de las sociedades que despliegan verdades establecias.“

El motete, la reinterpretación artística de los debates universitarios

Comenta Novikoff en su obra que el impacto social de los debates públicos fue tan grande que hizo surgir un nuevo género musical, el motete, en el que un grupo de voces interpretan diferentes melodías en total armonía, parodiando así las discrepancias y acuerdos que sucedían en aquellos debates.

Probablemente uno de los motetes más impresionantes es Spem in Alium (Esperanza en el Otro), compuesto en 1570 por Thomas Tallis pensado para ocho coros de cinco voces cada uno (soprano, alto, tenor, baritono y bajo).

En el siguiente vídeo vemos una interpretación de este motete en el que los ocho coros están compuestos por más de 700 personas.

Nuestro punto de partida: Aprendizaje Expandido

Edubots nació como una implementación de nuestra metodología:

Infografía Aprendizaje Expandido

(Infografía aprendizaje expandido)

Denominamos aprendizaje expandido a nuestra metodología educativa que presentamos en el año 2014 como una reinterpretación actualizada de los métodos usados en las primeras universidades europeas y que puede ser usada en forma presencial, online o semipresencial. Tal como sucedía entonces, nuestra metodología distingue entre el escenario de descubrimiento (aprende), el escenario de formalización (produce) y el escenario de comunicación (debate) potenciando así las capacidades reflexivas, de creación y las habilidades comunicativas de los estudiantes.

Hacemos uso de la nueva lógica de socialización que nos propone Internet, es decir, la organización de los individuos en comunidades autogestionadas, para lo cual implementamos los procesos y herramientas que han demostrado su eficacia en la creación de conocimiento en Internet:

  • herramientas multimedia para crear contenidos propios fruto de la reflexión
  • el uso de wikis para consolidar el conocimiento y generar debates;
  • el libro electrónico, cuyo coste de fabricación es prácticamente nulo,
  • la curación de contenidos, que permite proporcionar al alumno recopilaciones de materiales online gratuitos y de calidad

Y, cuando Telegram abrió la posibilidad de desarrollar bots, añadimos…

  • el uso de bots como interlocutores para cada una de las tres fases de nuestra metodología.