No se debe olvidar que las dinámicas de exclusión de nuestro mundo ahora también están generando un nuevo tipo de descartados, los descartados digitales cuyas “huellas” de datos en las nubes son limitadas o inexistentes. Este riesgo es aún mayor que el analfabetismo digital, ya que se trata de una nueva forma de invisibilidad, exclusión y segregación. Las tecnologías asociadas al enfoque de Big Data ya han comenzado a tomar madurez y se vislumbran grandes ¿Qué es la ciencia de datos y cómo se relaciona con la inteligencia artificial? oportunidades y retos en su utilización, optimización y adaptación a diferentes dominios de datos. Sin embargo, ya se encuentran resultados que muestran sus beneficios en aspectos como la reducción de tiempos, optimización de recursos y mayor flexibilidad. Existe una estrecha relación entre diferentes métodos y tecnologías para la construcción de soluciones que integren las capacidades de cada uno de estos y las potencien en nuevas propuestas.
En la actualidad se ha pasado de la transacción a la interacción, con el propósito de obtener el mejor provecho de la información que se genera minuto a minuto[2]. Mantelero advierte que una evaluación centrada en los derechos humanos debe dar una mejor respuesta a la demanda de una evaluación integral que incluya no solo la protección de datos, sino también los efectos del uso de los datos sobre los derechos y libertades, como la libertad de expresión, de reunión, de movimiento y también derechos como la no discriminación (2018, p. 771). De igual forma, tampoco se ha tratado la conexión con la analítica web, o con el periodismo ciudadano, y otro tema clave que son los propios riesgos que supone el fenómeno del big data. En niveles internos, también destacan la puesta en práctica de nuevos lenguajes, como el caso
de El País, descrito por Rubio-Lacoba (2012). Un lenguaje colaborativo que se puede definir como
una folksonomía controlada, cuya base es la indexación social y por objeto la
indización/categorización de las noticias.
El mejor sensor en tiempo real contra los terremotos son las personas
Así, es posible esperar que la incorporación de técnicas asociadas a las ciencias de datos genere ciertos análisis cada vez más precisos. Las posibilidades metodológicas que se abren con la ciencia de datos puede ser un paso importante para analizar información que origine nuevas explicaciones sobre los fenómenos mundiales. Asimismo, la ciencia de datos puede conducir a un falso dilema, https://www.elagora.com.mx/Que-es-la-ciencia-de-datos-y-como-se-relaciona-con-la-inteligencia-artificial.html entre la causalidad y la correlación como la mejor manera para comprender la realidad contemporánea (Cowls y Schroeder 2015, 448). En este sentido, el riesgo es que se pretenda preferir un aspecto de la construcción de explicación sobre el otro, privilegiando tendencias correlacionales que impiden establecer explicaciones basadas en la relación entre causas y consecuencias.
Big data se ha constituido como un “tópico caliente”que atrae la atención no solo de la industria, sino también de la academia y del Gobierno. Los autores presentan desde diferentes perspectivas el significado y las oportunidades que nos brinda el ecosistema Big Data y dan una serie de condiciones necesarias para que un proyecto de Big Data sea exitoso. En segundo lugar, para trabajar de forma eficiente con Big Data se requiere explorar y encontrar la estructura central o el kernel de los datos a ser procesados, ya que al tener esto se puede caracterizar el comportamiento y las propiedades subyacentes a Big Data. En tercer lugar, se debe adoptar un modelo de administración top-down, se puede considerar también un modelo bottom-up, sin embargo, solo serviría cuando se trata de problemas específicos, y luego tratar de unirlos para formar una solución completa es complejo.
Journal Big Data
Además, también interesan otras normas como rNews, que proporciona marcas semánticas para la anotación de noticias para los documentos web. No obstante, la posibilidad de compartir datos supone un nuevo reto en las tareas básicas de
selección, análisis y difusión que realiza el documentalista. En este contexto,
Peset, Ferrer-Sapena y Subirats-Coll
(2011) plantean el open data como una eficaz vía para
detectar duplicados documentales, eliminar las posibles ambigüedades terminológicas
y suministrar la información y datos a usuarios de otras especialidades
profesionales, como es el caso particular de los periodistas. Por otra parte, en las normas dictadas por el Con sejo de Organizaciones Internacionales de las Ciencias Médicas (CIOMS) de 2016, se da la posibilidad de re colectar y almacenar datos con fines de investigación, haciendo uso de un consentimiento informado amplio43. En consecuencia, ya se han emprendido iniciati vas como para generar registros de datos médicos que puedan servir para investigaciones futuras, donde en el presente no se tiene claridad de la pregunta de in vestigación a la que pueden dar respuesta.
- Este software emplea cámaras de video estándar o aquellas dispuestas en una ciudad para videovigilancia, permitiendo monitorear el flujo peatonal en zonas críticas, realizando un reconocimiento sobre la distancia mínima, indicando una alerta a las autoridades si alguien no cumple con la norma.
- Las transformaciones de gran alcance que se experimentan mundialmente plantean la necesidad de nuevos paradigmas que permitan comprender mejor las dinámicas de dichas transformaciones.
- Si se pierde de vista esto, se crea una mala interpretación potencial o, peor aún, una manipulación que puede fallar en proteger a las poblaciones vulnerables (Sarfaty, 2018, p. 849).
- Así, con la investigación empleando IA, se logra obtener información predictiva que ayuda a las autoridades sanitarias a tomar cartas sobre el asunto.