Tecnólogos + Diseñadores = BFF (Best friends forever)

Aquí les dejo una liga que se puede decir que ya es viejita (2012), pero aún esta vigente en cuestiones de interdisciplina. La pregunta que se hace es ¿Porqué a veces, fracasa la tecnología? y ¿Cómo evitar esta situación? la respuesta es con la alianza de Tecnología-diseño:

El autor plantea 3  argumentos:

El puente entre la capacidad y el contexto.
los diseñadores  conectan la tecnología con la forma en que las personas interactúan en y con el mundo.

Narradores al rescate.
El diseño tiene que ver con la comunicación. Los diseñadores cuentan historias. A través de estas historias, llamadas “escenarios de uso”, los diseñadores pueden comprender y explicar cómo y por qué las personas usan, o usarían, una tecnología determinada.

Entrar en la cabeza del usuario.
Los diseñadores también ayudan a los tecnólogos a dar forma y perfeccionar la tecnología a través de la investigación del usuario. Dedicamos tiempo a probar cosas y observar comportamientos existentes de los usuarios.

A medida que la tecnología se hace más omnipresente, y su base de usuarios y sus expectativas se amplían, los técnicos comienzan a ver cómo los diseñadores pueden ser una parte indispensable de su proceso. Los diseñadores ayudan a los técnicos a ahorrar tiempo y dinero y a evitar la frustración de los usuarios y  los tecnólogos les dan a los diseñadores los materiales para construir el futuro.

Aquí la liga al artículo completo:

http://www.kickerstudio.com/2012/11/why-technologists-and-designers-should-be-bffs/

Advertisements

Pensar con imágenes

Los apuntes visuales son notas dibujadas y trazadas en tiempo real. Esta manera de visualización rápida, te obliga a escuchar una presentación o clase, sintetizando lo que esta siendo expresado y visualizando una composición que capture la idea principal. Les dejo con los apuntes visuales del grupo de Laboratorio de Sistemas de Información en la […]

Curso abierto de Análisis exploratorio de datos con Pandas

La definición más común del Análisis Exploratorio de Datos la propone John W. Tukey y se refiere al tratamiento estadístico al que se someten las muestras recogidas durante un proceso de investigación en cualquier campo científico.

Sin embargo en el área de los sistemas de información geográfica (SIG)’s cuando tratamos con datos relacionados con el espacio y tiempo, este análisis de datos se refiere a: “El proceso iterativo de búsqueda de patrones geográficos en los datos, así como las relaciones entre otros elementos. (Mitchell 1999). Andrienko y Andrienko, 2006 plantean que este proceso comienza con la formulación de una pregunta de investigación, seguida de un método de análisis partir del tipo de dato disponible y el nivel requerido de información. (que a su vez puede generar datos adicionales). Después el dato es procesado y el resultado se despliega, lo que permite analizar la información y validar su utilidad o replantear los datos con distintos parámetros y otras técnica para interpretar y evaluar los datos obtenidos.

La diferencia de un análisis estadístico puro y uno que se hace en un sistema de análisis geográfico parece radicar en el tipo de dato al que se enfrenta la person y la variedad de métodos disponibles.

Es por eso que me llamo la atención este curso. Quizás valga la pena echarle un ojo.

Open Machine Learning Course. Topic 1. Exploratory data analysis with Pandas

View story at Medium.com

Referencias

Andrienko, N., & Andrienko, G. (2006). Exploratory analysis of spatial and temporal data: a systematic approach. Berlin ; New York: Springer.

Si encaminamos bien nuestras ciudades podremos sobrevivir al siglo XXI.

Eso nos dice Robert Muggah en su extraordinaria platica “The biggest risk facing cities” de TED y lo que mas me llama la atención es como utiliza los mapas que Carnegy Mellon le hizo para su plática. En resumen las ciudades están tomando acciones mucho mas rápidos que los gobiernos y requieren mucho diseño de servicios e infraestructura.

Muggah sugiere 6 principios para la resiliencia de las ciudades y nos muestra ejemplos

  1. Las ciudades requieren un plan y renegociar con sus gobiernos
  2. Deben volverse verdes
  3. Invertir en soluciones integrales que solucionen no sólo el transporte sino la salud por ejemplo
  4. Aumenta la densidad pero construir con cautela considerando la resiliencia y la inclusión.
  5.  Las ciudades deben robar las mejores ideas de otras ciudades
  6. Trabajar en coaliciones

En estos momentos de incertidumbre internacional, las ciudades y sus líderes tienen el derecho de sentarse en la mesa de los gobiernos y buscar soluciones.

les dejo la liga a la charla

Mapas en el espacio-tiempo

Con su proyecto “Movie Maps”, el ilustrador Andrew DeGraff decidió dibujar los mapas de las películas de culto de la cultura pop, desde Star Wars hasta Indiana Jones pasando por Goonies, Star Trek, Ghostbusters o El Señor de los anillos. Algunas ilustraciones precisas y fascinantes que documentan los movimientos y la distancia recorrida por los diversos personajes en las películas con líneas de color simples. DeGraff utiliza la proyección axonométrica en donde se muestra una imagen de un objeto según se ve desde una dirección de oblicuidad con el fin de revelar información de más de un lado de un mismo objeto. Este tipo de proyección son cada vez mas comunes logrando integrar muy bien la dimensión temporal con la espacial.

Aquí unos ejemplos de los más destacados.

Andrew-DeGraff-Movie-Maps-Back-to-the-Future
Volver al futuro
Andrew-DeGraff-Movie-Maps-star-wars
Star Wars
Andrew-DeGraff-Movie-Maps-the-shining
The Shining

Tomado de: http://www.ufunk.net/en/illustration/movie-maps/

Atlas del Fin del mundo

Una querida amiga me mandó esta liga a un proyecto maravilloso  que les recomiendo se tomen el tiempo de explorar. Se trata de un trabajo realizado por el Departamento de Arquitectura de Paisaje de la Universidad de Pensilvania (UPenn) Richard Weller, Claire Hoch y Chieh Huang. Donde nos muestran el “Atlas del fin del mundo” (ojo no se alarmen no se refiere a terremotos ni cataclismos, sino a que es un análisis  del estado del uso de la tierra y la urbanización en las bio-regiones más amenazadas de la Tierra. Los autores miden la cantidad de áreas protegidas a través de 36 zonas de peligro de biodiversidad en comparación con los objetivos de las Naciones Unidas para el 2020; e identifican hacia dónde se desarrollará el futuro crecimiento urbano en estos territorios y cómo impactará a las especies amenazadas.

La sección de MAPAS MUNDI muestra 44 mapas temáticos relacionados con el tema general de la biodiversidad global en la época del antropoceno

De hecho esta sección toca un punto muy importante en términos de representación espacial que parte de la reflexión en el debate de la proyección cartográfica, el cuál puede parecer anticuado ya que el retratar un mundo dinámico en una imagen bidimensional estática es en sí un concepto antes preocupaba más a los creadores de los mapas. Sin embargo, hay que observar que cada mapa que se genera hoy, está desfasado desde el mismo momento de su creación, y a medida que avanzamos en una era de nuevas tecnologías como:

  1. los sistemas de posicionamiento global (GPS)
  2. la teledetección a partir de sensores remotos
  3. la visualización en tiempo real
  4. la creciente capacidad para transmitir datos a computadoras personales de manera económica

El viejo problema de la distorsión de los mapas bidimensionales se vuelve relativo y a lo que debemos prestar atención es que el futuro de la cartografía – lo que los autores llaman cartografía ecológica – no radica en imágenes bidimensionales estáticas sino en el flujo temporal de la visualización como tal y el poder transmitirlos en medios web, que es el objetivo final que quieren alacanzar a travez de la plataforma al rastrear la evolución de estas zonas activas de todas las 867 ecoregiones del planeta en tiempo real.

Otra sección que vale la pena revisar, es la de DATASCAPES que muestra 11 visualizaciones diseñadas para entender cantidades que de otro modo son difíciles de comprender, como en el caso de las emisiones de carbono, el crecimiento urbano, la producción de alimentos. Me encantaría pensar algo así, pero con datos de America Latina.

La sección de FACTS and DATA  explica los dos índices de rendimiento utilizados por los autores: el primero ofrece el ranking estadístico de las 142 naciones que presiden estas zonas activas biológicas del mundo. Este índice ubica a estas naciones en función de: niveles de corrupción, desempeño ambiental, estado de planificación de la biodiversidad y su biocapacidad nacional en relación con la huella ecológica. El segundo ofrece un rápida estadística del rendimiento de cada zona en cuanto al alcance de los objetivos de la ONU y el número de ciudades de cada zona que de acuerdo a su análisis,  están en peligro de impactar la biodiversidad.

México aparece en el lugar #41 de corrupción con un 95 de 168, junto con Armenia y Filipinas y un índice ambiental de desempeño de 67/180, con un plan de biodiversidad nacional del año 2000 y evidencia de uso espacial de dicho plan. Con una Biodiversidad de 1.3 y huella ecológica de 2.9, ocupando 3 zonas activas y la de Mesoamérica abarca 31/31 ciudades.

world-map-seismic_winkel3-01

Earthquakes (magnitude)

< 5.0 >>>>> 9.0
  Volcanoes 1,540 from the
Holocene Period (past 10,000 years)

Age of the Ocean’s Lithosphere
0 >>>>>> 280 million years
  Zonas activas

Termino con este mapa del sistema terrestre determinado por la litosfera de las 7 grandes placas tectónicas que tienen un promedio de 100 kilómetros de espesor y que continuamente están empujando hacia arriba las cadenas montañosas y envuelven los suelos del océano en lava. A lo largo de miles de millones de años, conforme  la tierra se enfría lentamente, estas fuerzas han formado la topografía terrestre y la batimetría marina, que moldea el clima, la distribución de las especies y finalmente la cultura humana de nuestro planeta.

Finalmente esta investigación tiene tres grandes hallazgos: el primero es que la mayoría de las ecorregiones de las zonas activas están muy por debajo de los objetivos de las ONU para 2020 en materia de tierras protegidas; el segundo, se proyecta que casi todas las ciudades de las zonas activasseguirá extendiéndose de manerano reglamentada hacia los hábitats más valiosos del mundo; y por último, sólo un pequeño número de las 196 naciones que son parte en el CDB aparentan una escala apropiada de planificación del uso de la tierra que ayudaría a conciliar los valores internacionales imperativos en la conservación con la economía local.

Richard J. Weller, “Atlas for the End?” in Richard J. Weller, Claire Hoch, and Chieh Huang, Atlas for the End of the World (2017), http://atlas-for-the-end-of-the-world.com.

Del dato, al sistema

Les comparto este magnifico post de Jer Thorp, quien habla de tomar un enfoque sistémico para el diseño de visualización de datos, que no sólo permite resolver los problemas de manera más eficiente, sino nos ayuda a reflexionar sobre como los datos afectan  nuestra vida cotidiana.

In the fall of 2009, I wrote a pair of algorithms to place nearly 3,000 names on the 9/11 memorial in Manhattan. The crux of the problem was to design a layout for the names that allowed for what the memorial designers called ‘meaningful adjacencies’. These were requests made by next-of-kin for their family members to appear on the memorial next to — or as close as possible to — other victims. Siblings, mothers and daughters, business partners, co-workers, these connections represented deep affinities in the real world. There were nearly 1,400 of these adjacencies that a layout of the names would ideally honour.

In December of that year, I flew to New York to meet with some of the project’s stakeholders and to present the results of the algorithms that I’d developed. I came into the meeting disheveled and nervous. Disheveled because I’d flown into La Guardia that morning, having spent much of the plane ride revising and re-revising my presentation. Nervous because I had found out the day before that another team had also been working on the layout problem; a group of financial analysts (‘quants’) who almost certainly all had at least one PhD.

It must’ve been a strange sight. A small army of besuited financial professionals, across the table from a long-haired artist from Canada with an old, broken laptop. The quants went first: they’d run permutation after permutation on their server clusters, and they were confident they’d found the optimal solution for the adjacencies: a maximum about 93 percent of them could be satisfied. They’d asked to speak first because they wanted to ‘save us all some time’, since they knew, mathematically, that they had found the most highly optimized solution.

It was a persuasive argument. I let them finish, then I turned my laptop around on the table to show them a layout that I’d generated about a week before — one that was 99.99% solved.

The lesson here is not ‘don’t get a math PhD’. Nor is it (specifically) ‘hire a long-haired data artist from Canada’. The lesson is to not look just at the data, but at the entire system that the data is a part of. Taking a systems approach to data thinking allows you not only to solve problems more efficiently, but to more deeply understand (and critique) the data machinery that ubiquitously affects our day-to-day lives.

An over-simplified and dangerously reductive diagram of a data system might look like this:

Collection → Computation → Representation

Whenever you look at data — as a spreadsheet or database view or a visualization, you are looking at an artifact of such a system. What this diagram doesn’t capture is the immense branching of choice that happens at each step along the way. As you make each decision — to omit a row of data, or to implement a particular database structure or to use a specific colour palette you are treading down a path through this wild, tall grass of possibility. It will be tempting to look back and see your trail as the only one that you could have taken, but in reality a slightly divergent you who’d made slightly divergent choices might have ended up somewhere altogether different. To think in data systems is to consider all three of these stages at once, but for now let’s look at them one at a time.

Collection

Any path through a data system starts with collection. As data are artifacts of measurement, they are beholden to the processes by which we measure. This means that by the time you look at your .CSV or your .JSON feed or your Excel graph, it has already been molded by the methodologies, constraints, and omissions of the act of collection and recording.

The most obvious thing that can go wrong at the start of a data system is error, which is rife in data collection. Consider the medical field: A 2012 study of a set of prestigious East Coast hospitals found that only 3% of clocks in hospital devices were set correctly, meaning that any data carrying a timestamp was fundamentally incorrect. In 2013, researchers in India analyzed results from the humbly analogue blood pressure cuff in hospitals and clinics and found the devices carried calibration errors in the range of 10% across the board.

These kinds of measurement errors are pervasive, inside of hospitals and out. Errors may be unintended, the results of mis-calibrated sensors, poorly worded surveys, or uncounted ballots. They can also be deliberate, stemming from purposeful omissions or applications of heavy-handed filters or conveniently beneficial calibrations.

Going further back from how the data is collected, you should also ask why — or why not. Artist and data researcher Mimi Ohuoha, whose practice focuses on missing data, tells us that the very decision of what to collect or what not to collect is political. “For every dataset where there’s an impetus for someone not to collect”, she writes, “there’s a group of people who would benefit from its presence”. Onuoha neatly distilled the importance of understanding collection to the understanding of a data system as a whole in her recent talk at the Eyeo Festival in Minneapolis: “If you haven’t considered the collection process”, she stated neatly, “you haven’t considered the data.”

Computation

After collection, data is almost certainly bound to be computed upon. It may be rounded up or down, truncated, filtered, scaled or edited. Very often it’ll be fed into some kind of algorithmic machinery, meant to classify it into meaningful categories, to detect a pattern, or to predict what future data points from the same system might look like. We’ve seen over the last few years that these algorithms can carry tremendous bias and wield alarming amounts of power. But this isn’t another essay about algorithmic bias. There are many other aspects of computation that should considered when taking the measure of a data system.

In Jacob Harris’s 2015 essay Consider the Boolean, he writes about how seemingly inconsequential coding decisions can have extraordinarily impact on the stories our data might ultimately tell. Harris proposes that the harsh true-false logic of computation and the ‘ideal views’ of data that we endeavour to create with code are often insufficient to represent the ‘murky reality the data is trying to describe’. Importantly, he underlines the fact that while computational bias can come from big decisions, it can also come from small ones. While we urgently need to be critical of the way we our author machine learning systems, we also need to pay attention to the impact of procedural minutiae — like wether we’re storing a data point as a boolean or a string.

Representation

As you’ve seen, the processes of collection and computation are rampant with decision points, each of which can greatly increase or greatly limit the ways in which our data systems function. When we reach the representation stage, and begin to decide how our data might tell its story to humans, possibility space goes critical. Each time you pick a chart type or colour palette or a line weight or an axis label, you’re trimming the possibility space of communication. Even before that, the choice of a medium for representation has already had a predestinatory effect. A web page, a gatefold print, a bronze parapet — each of these media is embedded with its own special opportunities, and its own unavoidable constraints.

Whatever the medium, many of the points that Mimi Onuoha makes about collection can be mapped directly to visualization: questions about what is shown in a visualization and how it is shown must be paired with questions about what isn’t shown and why someone has chosen not to show it. In a quest to avoid the daunting spectre of bias, data visualization practitioners often style themselves as apolitical. However, the very process of visualization is necessarily a political one; as I’ve said for years to my students at NYU, the true medium of data visualization is not color or shape; it’s the decision.

By being mindful of the decisions we’re making when we’re authoring visualizations we can make better work; by seeing these decisions in work made by others we can be more usefully critical of the data media that we consume.