Una perspectiva documental y bibliotecológica sobre el big data y el periodismo de datos

Por ejemplo, se le podría solicitar identificar a grupos de pacientes con ciertas caracteristicas clínicas y luego, si esta clasificación tiene algún sentido clínico, se podría utilizar para tomar decisiones, por ejemplo, sobre el beneficio de algún determinado tratamiento que algún grupo podría tener22. El otro aspecto que define a los Big Data es la ve locidad, lo cual hace alusión al ritmo en que los datos se producen, pero también a la capacidad de respuesta en el análisis como para hacer de la información un producto que dé soluciones innovadoras y eficientes9. Por otra parte, los Microdatos corresponden a los registros de las características de las unidades de aná lisis de una población en estudio (individuos, hogares, establecimientos, entre otros), los cuales son recogidos por medio estadísticos formales. Por ejemplo, los re gistros de atención de salud permanente, las encuestas nacionales de salud y censos de población podrían dar origen a Microdatos.

La relación entre la respuesta y los predictores puede ser descrita a través de una función f para la cual se tiene Y ≈ f(X); de esta forma, podemos realizar una predicción simplemente evaluando esta función para nuevos valores de las variables predictoras. Por lo tanto, el propósito de estos métodos es aprender a partir de los datos disponibles una buena aproximación de esta función f. Estos métodos se conocen como supervisados dado que los datos contienen tanto el valor de la respuesta como el valor de los predictores, y el proceso de aprendizaje se conoce bootcamp de programación también como entrenamiento56. En la ilustración se muestran dos bases de datos, denotadas D1 y D2, que se diferencian sólo por la presencia de los datos de un individuo adicional. El objetivo de la privacidad diferencial es diseñar de algoritmos cuyas conclusiones, representadas por las curvas en azul y verde, son similares en este caso. En otras palabras, la presencia del individuo en la base de datos D2 no tiene un mayor impacto en las conclusiones obtenidas, lo que se ilustra a través del pequeño desplazamiento en la curva verde relativa a la azul.

El ‘big data’ revela leyes evolutivas ocultas en la música clásica

Debido al volumen y la velocidad es necesario desarrollar una infraestructura computacional que permita almacenar y administrar los datos adquiridos de manera segura. Enfatizamos que esta infraestructura no sólo constituye un registro digital, sino que además debe garantizar el rápido acceso y procesamiento de los datos, permitiendo los múltiples análisis requeridos por la práctica e investigación clínica. Esto exige la creación de unidades informáticas asociadas a clínicas y hospitales, que velen por la mantención, organización y administración de estas bases de datos y diseñadas de acuerdo con los requerimientos específicos de variedad y variabilidad de los datos. 11 Es un nuevo enfoque educativo que tiene como principal objetivo el llevar a cabo el desarrollo integral de las personas en cada una de las dimensiones de su vida cotidiana, estableciendo como medios para alcanzar dicha meta el proyecto ético de vida y la reflexión constante sobre los diversos problemas de contexto que caracterizan a las tecnologías de la información y la sociedad del conocimiento. Dentro de los documentos más relevantes para hacer frente a esta situación de vulneración de los derechos humanos por el uso de técnicas de big data más recientes, se encuentran las Directrices éticas para una inteligencia artificial (IA) fiable, estudio de los expertos que señala que la IA debe ser lícita, ética y robusta.

  • Como primera estrategia, se hizo un acercamiento cienciométrico por medio de la herramienta bibliográfica SCOPUS, un índice bibliográfico que contiene una colección representativa, completa y multidisciplinar a nivel mundial.
  • En la primera parte, correspondiente a la perspectiva empresarial, se presenta una comparación entre las soluciones Big Data y las soluciones tradicionales de Datawarehouse.
  • Para realizar estudios de IA mediante aprendizaje automático (que incluye el aprendizaje profundo en algunos casos), se requieren de determinados algoritmos, como árboles de decisión, regresión para análisis estadístico y predictivo, redes adversarias generativas, Clustering basado en instancias, bayesianos, redes neuronales, etc.
  • Primero, definir los conceptos esenciales que permitan dar perspectiva a la discusión del uso de estos métodos en aplicaciones clínicas.
  • Para efectos de este documento se describen, sin entrar en detalle, la minería de datos, el aprendizaje máquina, el reconocimiento de patrones, los algoritmos genéticos y las reglas de asociación.

Se trataría de instrumentos y procesos que
llevan la información filtrada a aquella persona que lo necesite tras un proceso de
búsqueda, agrupación y organización, con una presentación que sea también proactiva. Como se puede observar, es una propuesta de marco de trabajo automatizado en el entorno periodístico, pero que se puede tomar como punto de partida interesante en la intersección entre web semántica y big data, también desde una perspectiva manual. En este sentido, la clave se sitúa en los procedimientos de representación-descripción de la información y el conocimiento, así como de las relaciones entre ellas, fundamentalmente con capacidad para que sean comprensibles desde un punto de vista informático. Esto nos retrotrae no sólo a los formalismos para la descripción de entidades, sino también a instrumentos como las ontologías.

«Los datos impulsan todo lo que hacemos»

Es tan profundo el cambio de prácticas que, en la mayoría de las ocasiones, no se vislumbran límites entre las tareas periodística y documental, aunque ambas figuras siguen siendo operativas ya que en el uso del big data y del open data se exige una actualización permanente. Tarea desempeñada en mayor medida por el documentalista que, lejos de ser una figura en riesgo de desaparición dentro de los medios, puede ver incrementada sus funciones a partir de las necesidades del profesional del periodismo. La captura de datos a través de aplicaciones y teléfonos móviles produce cantidades ingentes de información sobre nuestro día a día online. Es por ello comprensible que dichos datos tengan cada vez más valor, ya que se utilizan https://laverdad.com.mx/2023/12/unico-en-mexico-y-el-mundo-el-bootcamp-de-programacion-de-tripleten/ para mejorar las relaciones con los ciudadanos o clientes, personalizar servicios y productos y automatizar todo tipo de procesos. Descubrir que estamos cediendo nuestra información personal despierta a menudo el pánico general, pero hasta las actividades más rutinarias —como consultar el tiempo o pasar el robot aspirador— suponen la apertura de una ventana a nuestra privacidad; la misma que también hace posible que una aplicación traduzca un texto sin mucho esfuerzo o que nuestro móvil nos resuelva una duda preguntándole a viva voz. En este libro se explican, de manera accesible, los conceptos básicos del big data y la ciencia de datos, algunos de sus beneficios y riesgos, y se promueve un uso responsable de la tecnología.

  • Un ejemplo en el cual la adopción general de un modelo predictivo puede conducir a errores de predicción es el caso del estimador del peak estacional de influenza.
  • En otro orden, el aprendizaje profundo se refiere a la forma en que la máquina va obteniendo la “respues ta correcta”.
  • A esto se suma la variedad de las fuentes y de los tipos de datos, también no estructurados (textos, mensajes en redes sociales), en constante actualización, y que deben ser organizados.
  • Esto explica por qué una parte importante de la investigación empírica en este campo se base en datos recogidos de dicha red (pues no es el caso de Facebook, que tiene políticas de privacidad que impiden extraer información de cuentas que no sean públicas).

Sin embargo, parece que ante la incapacidad de las normas jurídicas provenientes de los Estados para evitar un mal uso de los análisis de macrodatos, la solución a esta problemática sigue siendo el apelar, por ahora, a las buenas prácticas de los actores que intervienen en el tema, sean estos proveedores de Internet, administradores de sitios web o cualquier otro actor, incluidos los mismos usuarios de Internet. Este trabajo, de carácter teórico y descriptivo, debe ser continuado a partir de las incógnitas que hemos delimitado. De igual forma, tampoco se ha tratado la conexión con la analítica web, o con el periodismo ciudadano, y otro tema clave que son los propios riesgos que supone el fenómeno del big data. La ventaja de emplear el aprendizaje automático frente a otras técnicas estándar que duran años es que el proceso de identificación puede realizarse en cuestión semanas, con una reducción de costos considerable, sumado a una probabilidad muy alta de éxito. Por ejemplo, Smith y Smith (2020, 2) afirman que, el diseño futuro de fármacos antivirales SARS-CoV-2, ya está a cargo de un equipo europeo que utiliza el supercomputador de IBM equipado con el sistema AI SUMMIT para ser utilizado en tratamientos por COVID-19. En primer término, es importante tener en cuenta que el registro médico surge de la práctica clínica, por tanto, el dato que se registra corresponde a un conjun to de acciones realizadas por profesionales de salud, en pos de atender o dar respuesta a una necesidad de salud de quien la requiera.

El CDO de Alcampo, Luis González nos acompaña en Territorio Big Data

Para el caso de análisis de datos robustos se requiere de una gran infraestructura tecnológica, como superordenadores dedicados específicamente para trabajar con IA, donde empresas como Microsoft e IBM están apostando con el objetivo de encontrar tratamientos que permitan combatir la COVID-19 en un tiempo relativamente corto. La particularidad de trabajar con este tipo de tecnología es que puede ejecutarse desde diversos lugares del mundo, facilitando el acceso al código abierto a grupos de investigadores que trabajan en diversas áreas de la IA, el Big Data y ciencia de datos. A la par con el incremento de registros de datos de pacientes, se está generando una gran cantidad de ban co de datos, mayoritariamente de acceso público, los cuales están facilitando la investigación a nivel molécular34,35. De ahí que los datos masivos y las complejas estrategias de análisis antes descritas han permitido buscar patrones de personas, ya sea para clasificarlas con fines diagnósticos o terapéuticos, así como tam bién para la elaboración de fármacos dirigido a estos patrones únicos. Así, por ejemplo, en el ámbito de la genómica, se realizó el estudio de caracterización de los genes conductores de cáncer y mutaciones, donde se identificaron 299 genes conductores con sus respec tivos sitios anatómicos y tipos de cánceres involucrados36. En cáncer infantil, y al alero del proyecto Pancancer, se han analizado 961 tumores de niños, ado lescentes y adultos jóvenes que comprenden 24 tipos moleculares distintos de cáncer.

articulos cientificos de big data