Big data: desafíos para la política pública

NOTICIAS

¿TE GUSTARÍA FEDERARTE?

Utiliza nuestro formulario. Resoveremos todas tus dudas

SÍGUENOS

Por tanto, cuando se habla de datos masivos, se está refiriendo a una generación de datos del orden de los Pb y Eb o superior. En el campo de la analítica y el big data, así como en muchos otros, siguen presentándose nuevos avances. Si vuestro objetivo es manteneros al día de los últimos acontecimientos y estar en primera final, no puedes dejar de revisar estas publicaciones académicas.

Por ello, es necesario considerar otras dimensiones al intentar caracterizar qué es Big Data. La velocidad y la variedad de los datos son dimensiones relevantes que complementan el volumen. La velocidad refiere tanto a la rapidez de generación de los datos, por ejemplo, señales fisiológicas adquiridas en tiempo real por sensores vestibles, como al tiempo en que el procesamiento de los datos debe ser realizado, por ejemplo, al correlacionar señales en tiempo real para determinar el riesgo de un paciente y así poder asignar recursos en una unidad de cuidado intensivo. La variedad refiere a la naturaleza diversa de los datos que se adquieren hoy en día, incluso de un mismo paciente, como por ejemplo imágenes radiológicas, pruebas de laboratorio, e información cualitativa presente en fichas médicas. En resumen, son el volumen, la velocidad y la variedad23 de los datos que dan en parte origen a Big Data y elucidan los desafíos tecnológicos que presenta su manipulación y administración. Se hizo la búsqueda en el índice bibliográfico Web of Science (índice con el cual trabaja la herramienta ToS) y se obtuvo un total de ciento setenta y cuatro (174) artículos para los parámetros de búsqueda.

Cómo Amazon colabora con la dura política migratoria de EE. UU.

El objetivo de analizar los datos depende fuertemente del contexto en el que se origina la necesidad del análisis. En la primera, llamada predicción, los datos corresponden a registros históricos acerca del valor de una variable de interés, conocida como variable de respuesta, y los valores de múltiples variables que pueden predecir dicha respuesta, denominadas variables predictoras. El objetivo de la predicción es determinar el valor de la variable de respuesta para una colección de nuevos valores de las variables predictoras, distintos de aquellos que conocemos (Figura 3).

  • Con sesiones de asesoría personalizadas adaptadas a tus necesidades y objetivos de investigación, te proporcionamos la orientación y el apoyo que necesitas para superar los obstáculos y terminar con éxito tu investigación académica de posgrado, a la cual has dedicado tiempo y dinero.
  • Además de todos los avances que ha permitido esta nueva forma de utilizar los datos, también se recogen los diferentes retos que plantea esta nueva forma de captura y uso de los datos y de la información.
  • Usualmente se considera la veracidad de los datos como una dimensión de Big Data, que caracteriza en qué grado los datos reflejan una realidad objetiva, evitando errores sistemáticos o sesgos debido a factores humanos o técnicos.
  • Es crucial remarcar que la evaluación de políticas constituye un eje fundamental de la visión moderna de la cuestión pública, como lo reafirma el flamante premio Nobel asignado a esta reciente y crucial aproximación empírica a través del análisis científico de los resultados de una política.

Por otro lado, sobresale también el análisis de redes sociales con 11 trabajos y una orientación más cuantitativa y visual. Por ejemplo, el trabajo de Ferra y Nguyen (2017), que hace un análisis de redes sociales a través del hashtag #migrantcrisis, para conocer cómo el discurso transnacional sobre la crisis migratoria se materializa en Twitter, enfocándose en los participantes y en las redes semánticas que emergen alrededor del hashtag. Respecto a los trabajos centrados en big data, hay una mayor diversidad de aspectos que se extraen, destacando especialmente https://www.elbravo.mx/el-curso-de-ciencia-de-datos-que-te-prepara-para-un-trabajo-en-la-industria-de-ti/ en la serie de artículos analizados historiales médicos electrónicos, como aspecto único, o en combinación con otros datos como datos de población o estadísticas de salud complementarias (Tu et al, 2015; Pennap et al, 2017; Retamozo et al, 2018). Otros objetos que han sido susceptibles de extracción han sido datos de roaming, service request, artículos, historial de llamadas, árboles genealógicos, listas de apellidos, búsquedas, reclamaciones administrativas de Medicaid, datos de población,etc., dando cuenta de la diversidad de posibilidades.

Journal Big Data

El objetivo de la investigación es identificar casos de aplicaciones del uso de la Datificación y las herramientas de análisis de datos, en América Latina entre el 2015 y 2019, y reseñar cómo estas tecnologías afectan las dinámicas en diversos escenarios sociales de la región. La población objetivo está representada principalmente por países de América Latina, aunque se incluyen algunos casos de Estados Unidos y España. Se evidencia que la Datificación y las tecnologías asociadas, están transformando la sociedad en los países objeto de estudio, reflejándose mejoras en la calidad de vida de sus ciudadanos, principalmente en sectores como Gestión Pública y Seguridad.

  • Es decir, no tiene sentido en insistir en la vieja práctica de las encuestas que intentan aproximar una población a través de una parte cuando, big data mediante, es posible acceder directamente a la población.
  • Como hemos visto, los ingenieros de datos ofrecen el soporte a la tecnología necesaria para que los científicos de datos puedan acceder y manipular los datos.
  • El problema que se desprende del uso del análisis de macrodatos es que, actualmente, las normas jurídicas no impiden que se dé un manejo poco ético e inclusive ilícito en la captación, gestión y procesamiento de los datos de los individuos que utilizan los medios digitales (2018, p. 848).
  • Además, se consiguió alcanzar la meta de elaborar un registro documental haciendo uso de buscadores como Science Direct, IEEE Explore, Emerald, Oxford University Press, Springer y Google Académico, principalmente.
  • Es imposible conocer todas las tecnologías en detalle, por lo que un buen ingeniero de datos sabe cómo especializarse en el conjunto de tecnologías que más le interesen y enfocar su aprendizaje paso a paso.

A modo de ejemplo, la pobreza en el Gran Buenos Aires se mide con una encuesta periódica oficial (la Encuesta Permanente de Hogares) de aproximadamente 3.500 hogares que representan a los aproximadamente 4 millones de hogares de la región. Es la estructura científica de la misma la que garantiza que unos pocos hogares puedan cumplir adecuadamente la tarea de representar una población mucho mayor. Por otro lado, cualquier celebrity menor cuenta sus seguidores El curso de ciencia de datos que te prepara para un trabajo en la industria de TI en Twitter o Instagram de a cientos de miles, cuando no millones. Suena tentador pensar que una encuesta que responden millones de personas es mucho mejor que una encuesta tradicional, implementada con formularios y encuestadores que recogen unos pocos cientos o miles de datos. Como se adelantó, la naturaleza anárquica y espontánea de big data hace que sus datos sean incomparables con los de una encuesta o experimento científicamente diseñados.

Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas: “Estamos jugando a ser dios con la inteligencia artificial”

Por otro lado, en el aprendizaje no supervisado, el algoritmo del equipo no posee la respuesta correc ta, por lo que debe generar los perfiles o predicciones solo con la información histórica que se le entrega. Por ejemplo, se le podría solicitar identificar a grupos de pacientes con ciertas caracteristicas clínicas y luego, si esta clasificación tiene algún sentido clínico, se podría utilizar para tomar decisiones, por ejemplo, sobre el beneficio de algún determinado tratamiento que algún grupo podría tener22. Por otra parte, los Microdatos corresponden a los registros de las características de las unidades de aná lisis de una población en estudio (individuos, hogares, establecimientos, entre otros), los cuales son recogidos por medio estadísticos formales.

En el sector privado, las organizaciones están creando un nuevo perfil en sus organigramas tras la aparición de estas tecnologías. El chief artificial intelligence officer (CAIO) estará al mando de estas soluciones, nacidas para tratar problemas complejos para los que habitualmente no hay información disponible. Este nuevo directivo debe reunir, por un lado, habilidades científicas, principalmente para la resolución de procesos cognitivos, tareas de predicción, simulación, etc., y, por otro, una visión de ingeniería, para aplicar paradigmas simbólicos, conexionistas e híbridos.

ÚLTIMAS NOTICIAS