Para efectos del presente artículo, nos bastará concebir la Ciencia de Datos como la disciplina del “estudio científico de la creación, validación y transformación de datos para crear significado”133. Para crear significado, lo más relevante es extraer información interpretable a partir de cantidades masivas de datos, por lo que nos enfocaremos en los métodos de análisis que usa la Ciencia de Datos, dejando de lado las dificultades, los desafíos, y las técnicas computacionales y algorítmicas asociadas a las tres primeras Vs de Big Data. La presentación y discusión tendrá un punto de vista estadístico, teniendo similitudes con la disciplina del Aprendizaje Estadístico de la que la Ciencia de Datos se nutre; ver, por ejemplo, (34-38) siendo referencias útiles para aprender más de esta disciplina34-40. La protección de la privacidad de los pacientes ilustra un desafío importante, pero es sólo uno de los desafíos que Big Data presenta por sí mismo; como mencionamos, existen desafíos técnicos, relacionados con bases de datos, la ingeniería de software y la limpieza y mantención de datos, además de desafíos organizacionales y culturales32. A pesar de esto, las dimensiones de Big Data entregan al lector un sólido punto de partida para entender y discutir estos desafíos. Debido al volumen y la velocidad es necesario desarrollar una infraestructura computacional que permita almacenar y administrar los datos adquiridos de manera segura.

articulos cientificos de big data

En [16] los autores proponen un teorema llamado “HACE” (Heterogeneous, Autonomous, Complex y Evolving), con el cual buscan describir las características de la revolución de Big Data. El teorema plantea la existencia de un gran volumen de datos heterogéneos y provenientes de fuentes autónomas con control distribuido https://el-mexicano.com/cienciaytecnologia/curso-de-ciencia-de-datos-para-pulir-tu-profesion/2198980 y descentralizado, y que trata de explorar relaciones complejas y cambiantes entre los datos. La heterogeneidad se refiere a los diferentes tipos de representaciones para los mismos individuos, y la diversidad de características se refiere a la variedad a la hora de representar cada observación particular.

Los casos en los que la Inteligencia Artificial nos salvó la vida

¿Cambiarán nuestras perspectivas de lo global o simplemente se “expandiría” nuestro conocimiento de lo que ya sabemos? ¿La ciencia de datos proporcionará nuevos patrones para comprender mejor las tendencias globalizantes y sus implicaciones o representará una nueva forma eurocéntrica del conocimiento científico que disminuya o limite otras voces no occidentales del conocimiento que los estudios globales Cómo un bootcamp de tester de software te abre las puertas del sector tecnológico se han esforzado en retomar? Con la intención de bosquejar algunas respuestas al respecto, en la siguiente sección se analizarán las posibles implicaciones metodológicas de la ciencia de datos para los estudios globales. Los retos que se desprenden del consumo y creación de información a través de la red incluyen necesidades de captura, manejo y procesamiento de grandes volúmenes de datos.

  • Esta situación, explica Hoeren, trae aparejadas otras consecuencias legales, y es que la afectación directa por este tipo de resultados es hasta ahora difícil de demostrar ante los tribunales en general (2017, pp. 27 y 34).
  • Como se ha venido comentando, el tratamiento de Big Data ha exigido el desarrollo de soluciones computacionales que permitan afrontar las necesidades y retos que traen consigo los grandes volúmenes de datos, su variedad de fuentes y la velocidad con que se generan.
  • En un primer momento, la generación en grandes volúmenes de información fue aprovechada por empresas especializadas en la administración de sitios de Internet con el objetivo de encontrar en ese conjunto de datos oportunidades para incrementar sus utilidades (Van der Aalst 2014, 13-28).
  • Sin embargo, para que las herramientas tecnológicas basadas en big data enriquezcan nuestro conocimiento y nuestra comprensión en el campo de los estudios globales, es necesario mantener una actitud crítica, sin olvidar que tanto la elección de los datos como su análisis y las narrativas que se construyen alrededor de los flujos de información no dejan de ser elecciones que no son totalmente objetivas.

En esa línea, la empresa Microsoft constantemente se resistía las citaciones de los Gobiernos alegando que los datos se alojaban en otras jurisdicciones y, por lo tanto, las cortes norteamericanas no eran competentes. Así, los derechos humanos se entrelazan con el comercio internacional, porque también se impide que haya un flujo global de datos pues puede impactar en los derechos humanos, lo que limita la actividad comercial. Sin embargo, las estadísticas que se obtienen con la técnica de análisis de los grandes cúmulos de datos también permiten dar cuenta de las violaciones a los derechos humanos, por lo que pueden considerarse como herramientas útiles para que tanto los agentes gubernamentales como la comunidad internacional puedan hacer uso de ellos, observar tendencias y emitir alarmas. Las Naciones Unidas ya ha considerado los macrodatos para contribuir al desarrollo sostenible a través de su proyecto «Construyendo nuestro futuro juntos», en el cual contempla el uso de los macrodatos para el desarrollo sostenible. Los análisis de big data son una herramienta que puede servir para impulsar la promoción y protección de los derechos humanos, como lo manifiestan las Naciones Unidas a través de su estudio Macrodatos para el desarrollo sostenible (ONU, s/f), pero que también puede ser utilizada para vulnerar esos mismos derechos, por lo que debe ser regulada de manera puntual. Por ello, resulta necesario generar información clara y suficiente para que los individuos comprendan cómo el uso de ciertas tecnologías puede afectar sus derechos humanos.

Investig. bibl vol.34 no.82 Ciudad de México ene./mar. 2020

Como lo han observado (Mayer-Schönberger y Cukier 2013, 3), hasta hace poco tiempo la información era escasa, costosa y difícil de conseguir. No obstante, la expectativa era que esa información fuera de una calidad lo suficientemente elevada de modo que permitiera obtener conclusiones que resultaran razonablemente válidas. Hoy en día, sin embargo, con la recopilación y almacenamiento de datos masivos de información, se está modificando la manera en que se aprehende la realidad. El valor de la información ya no reside en datos concretos, sino en la forma en que se correlacionan datos masivos para descubrir patrones que ni siquiera se habían imaginado. Así, cuando se analizan computacionalmente datos masivos, se puede proporcionar información más precisa sobre patrones, tendencias y asociaciones ocultas (Grable y Lyons 2018, 17).

Este artículo se trazó como objetivo mostrar algunos trabajos desarrollados entorno a la temática y describir tecnologías y técnicas de Big Data, notándose que siguen siendo materia de investigación y discusión, generando la posibilidad de proponer alternativas y modelos basados en la táctica de divide y vencerás. En todo análisis basado en el geoprocesamiento se emplean herramientas, algunas de ellas casi mágicas, como el join espacial, que anexa información de distintas capas para enriquecer el modelo. En todo análisis basado en el geoprocesamiento se emplean herramientas, algunas de ellas casi mágicas, como el ‘join espacial’, que anexa información de distintas capas para enriquecer el modelo. No solo a nivel de empresas y negocio, sino que en cualquier profesión se hace necesaria ya la presencia de un experto en estas disciplinas. La policía de Vancouver, en Canadá, por ejemplo, trabaja con el machine learning y las soluciones geoespaciales de Esri para conocer los índices de criminalidad y profundizar en ellos. Gracias a estos datos, capaces de predecir situaciones delictivas, han conseguido una precisión del 80 % en el modelo y una reducción del 27 % de la criminalidad en las zonas estudiadas.

Revista de Bioética y Derecho

El objetivo de la predicción es determinar el valor de la variable de respuesta para una colección de nuevos valores de las variables predictoras, distintos de aquellos que conocemos (Figura 3). Este es el caso, por ejemplo, cuando se dispone de registros de la sobrevida y el historial médico de pacientes que han sido sometidos a una intervención. Ejemplos concretos de estudios que constituyen objetivos de predicción son estudios de diagnóstico clínico38, genómica39 y análisis de imágenes radiológicas40,41 entre otros.

  • Empresas e instituciones necesitan completar sus organigramas con expertos en estas disciplinas para predecir situaciones aplicables a cualquier ámbito de actuación.
  • La IA y el radiodiagnóstico están jugando un papel importante en la detección del COVID-19 con un porcentaje superior al 90%, lo que puede incrementarse cuando se entrena el sistema con mayor cantidad de datos, por lo que el Big Data en conjunto con otras disciplinas analíticas son un factor clave para llevar a feliz término un estudio.
  • Estados Unidos también ha asumido el potencial que tiene la inteligencia artificial (IA) en todos los sectores y su apuesta se ha concretado en un plan estratégico.
  • Por lo tanto, para que esta metodología pueda revolucionar la disciplina médica, es necesario disponer de un marco conceptual donde sea posible discutir de manera objetiva sus resultados.
  • Esta especificidad radica en el hecho que mediante procesos de extracción de características morfológicas sobre el objeto de estudio (Márquez, 2019), se validan con respecto a patrones propios de otras enfermedades, estableciéndose factores de similitud, bien en cuanto a la geometría del tejido, lesiones en el mismo y variaciones de intensidad, entre otros.

Leave a Reply

Your email address will not be published. Required fields are marked *