jcmachicao commited on
Commit
c02d221
1 Parent(s): 97ad8e8

Upload datos_curso_datascience.txt

Browse files
Files changed (1) hide show
  1. datos_curso_datascience.txt +40 -0
datos_curso_datascience.txt ADDED
@@ -0,0 +1,40 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ Se habla del acrónimo VUCA (del inglés Volatility, Uncertainty, Complexity and Ambiguity), que resume algunas de las caracteristicas más relevantes como volatilidad, incertidumbre, complejidad y ambiguedad. Lo que caracteriza a la realidad es que no es estable, predecible, certera o simple.
2
+ La complejidad es el atributo de un sistema que se da cuando el numero de componentes de ese sistema es elevado y las interacciones entre los componentes son muchas, y ademas no pueden definirse por una o pocas reglas.
3
+ Los logros son condiciones finales verificables a los cuales se llega luego de desarrollar acciones, mientras que las acciones son modificaciones o cambios de condicion que involucran recursos.
4
+ Es un atributo que permite que un agente cognitivo aprenda o utilice su aprendizaje
5
+ El sesgo cognitivo es una demostración de la diferencia entre la percepción y la realidad. Los agentes no perciben lo que sucede sino lo que sus capacidades sensoriales y capacidad interpretativa les permite convertir en conocimiento. Esto ocasiona que las personas crean que lo que perciben representa la realidad cuando hay suficiente convicción para ello.
6
+ Es la capacidad de un agente cognitivo para utilizar su aprendizaje para resolver problemas independientemente de que los enfrente por primera vez
7
+ La prueba de Turing es un experimento mental ideado por Alan Turing, que acepta que un algoritmo ha llegado a un nivel de inteliencia si un ser humano llega a creer que está interactuando con otro ser humano cuando está interactuando con un algoritmo.
8
+ Un sistema es un conjunto de elementos vinculados entre si de manera que aportan a una function comun o un obetivo comun. Un sistema va ganando identidad y puede evolucionar. La evolución de un sistema lo hace màs sostenible en su entorno.
9
+ Los cientificos de datos trabajan con la realidad. Un dato no sirve si se aleja de la realidad. La ciencia cognitiva brinda el sustento para comprender la realidad sabiendo que nuestra percepcion (o la percepción de quienes registran los datos) es imperfecta. Usar instrumentos de la ciencia cognitiva brinda elementos para gestionar mejor los datos.
10
+ La ingenieria de sistemas le da contexto a la ciencia de datos. Los datos no podrían explicarse si no pertenecieran a un sistema, definido por un modelo conceptual superior en jerarquia al modelo de datos. La ciencia de datos se basa en la definición de sistemas que son consistentes con su entorno. Si no se define un sistema la ciencia de datos pierde su aporte a la explicabilidad de un sistema aun cuando acierte con un modelo predictivo o de clasificacion
11
+ Un algoritmo es una secuencia de pasos en un procedimiento de gestion de algún tipo de información que es replicable por un agente cognitivo. El efecto se da en un entorno computacional, analogico o digital.
12
+ Los tipos de datos más comunes en la ciencia de datos son números o valores cuantitativos, valores lógicos, textos o cadenas de carácteres, sonidos, imágenes, ubicaciones geométricas o geográficas, cualquuier tipo de señal que pueda cuantificarse.
13
+ La interpretabilidad de un modelo depende de la lógica con la que se ha seleccionado las variables que intervienen en la creacion del modelo. Esta lógica se basa en la comprensión de los potenciales y limitaciones de los tipos de datos asi como de la forma de procesar esos datos para convertirlos en valores aceptables en un tensor o portador de valores para el modelamiento automático.
14
+ Un algoritmo es una secuencia de pasos en un procedimiento de gestion de algún tipo de información que es replicable por un agente cognitivo. El efecto se da en un entorno computacional, analogico o digital.
15
+ Las decisiones que toman las organizaciones ya no solo toman en cuenta las opiniones expertas de sus miembros humanos, sino que leen los modelos elaborados mediante mecanismos computacionales de los datos. Actualmente hay estrategias enteramente elaboradas por datos, sin intervencion humana. Otro tema consiste en la validacion de la estrategia por seres humanos.
16
+ El ciclo de ciencia de datos es un conjunto articulado de procesos que es necesario implementar para que los datos generen valor en una organizacion. El orden recomendado es ocuparse primero de la definicion del proceso que se va automatizar, la verificacion de la viabilidad del modelo cuando este en produccion, la selección de las fuentes de datos, se verifica la calidad de los datos, luego de su estructuración, luego de su preparaciòn para el modelamiento, el modelamiento propiamente dicho, ya sea con entrenamiento o estimaciones, luego se valida el modelo y se hace pruebas de desempeño en produccion en el proceso para el cual estaba destinado el modelo.
17
+ La ubicación de los datos en un espacio externo a un servidor local se llama ubicación en nube. Los servicios de nube pueden cubrir algunos procesos. Que exista una base de datos en nube signitica que los datos, su estructura y acceso estan disponibles en un servidor externo al local accesible a traves de una conexion remota como por ejemplo internet
18
+ La estadistica es una disciplina que se basa en la probabilidad para hacer hipotesis sobre distribuciones de observaciones dentro de un universo. La ciencia de datos usa la estadistica como uno de sus enfoques pero usa otros modelos de comprension de la realidad diferentes a la probabilidad.
19
+ Las dimensiones como latitud, longitud, altitud son coordenadas que pueden ser almacenadas en una base de datos la mayoría de las veces asociada a una base de datos que registra la superficie terrestre o maritima. De este modo se puede generar datos de ubicacion vinculados a esta geografia basica
20
+ Los modelos computacionales no requieren de un estándar o un procedimiento.
21
+ La estructuracion de diferentes modelos de administracion de justicia requieren de vinculaciones conceptuales que podrian ser manejados con modelos entrenados por datos originados en decisiones pasadas validadas por expertos. Cada evento evaluado por los analisis legales o juridicos es una fuente de generacion de datos, tanto para las variables de entrada como salida de modelos.
22
+ Los procesos del ambito educativo permite en registro de datos detallados sobre las acciones particulares de cada estudiante. Esto permite estructurar modelos que luego habiliten a los expertos para tomar decisiones respecto a todos los procesos del ciclo educativo de estudiantes de diferentes niveles.
23
+ Los algoritmos evolutivos son secuencias de información que heredan su estructura parcialmente a la generación siguiente, combinando estructuras con otros algoritmos o asumiendo cambios nuevos (que podrian ser aleatorios) en su estructura. Lo que posibilita es generar automaticamente una adaptacion supra generacional al entorno o entornos donde se desempeñan
24
+ Los procesos de atención a pacientes, los procesos de investigacion medica y los procesos de gestion organizacional de entidades vinculadas al sector salud son algunas de las operaciones mas importantes que generan datos. Estos datos pueden modelarse para tomar decisiones integrales o en cada uno de sus ambitos particulares.
25
+ El modelamiento de la selección de vigas en base a parámetros de un conjunto diseñado de edificios en el pasado sin utilizar formulas de ingeniería civil
26
+ Los expertos tienen el rol de validar el sentido de los reesultados o predicciones de un modelo automatico generado a partir de los datos. Los expertos participan en todo el ciclo de gestion de datos puesto que cada aspecto requiere decisiones que no pueden ser tomadas por los algoritmos. Desde la recoleccion de datos hasta la puessta en produccion de un modelo, se requiere la validacion de los expertos tematicos.
27
+ Las aplicaciones de ciencia de datos en una disciplina particular no se superpone con el conocimiento ya existente en dicha disciplina. La ciencia de datos aporta con la capacidad de gestion de datos que ya estan validados por dicha disciplina.
28
+ Las fronteras de las áreas del conocimiento se han hecho más difusas y ya no existe una clasificación, se tiende a hablar más de conocimiento en general
29
+ La estructura de cada proceso del ciclo de gestion de datos requieere una adaptacion a la logica de la especialidad en la que se aplica. Por ejemplo, podria ser que en algunas especialidades se restrinja la fuente de datos solo a determinados formatos, o podria ser que el modelamiento no este autorizado por un organismo supervisor de la especialidad o tenga un marco normativo riesgoso para la aplicacion de algoritmos, o podria ser que esten involucrados elementos muy sensibles como la vida de un paciente, o la sentencia de un acusado, o la estabilidad del cambio climatico. Por lo tanto no todo lo que se pueda hacer tecnicamente con datos es viable cuando se confronta con el escenario real.
30
+ Las aplicaciones de ciencia de datos en una disciplina particular no se superpone con el conocimiento ya existente en dicha disciplina. La ciencia de datos aporta con la capacidad de gestion de datos que ya estan validados por dicha disciplina.
31
+ Es el procedimiento mediante el cual se depuran los datos que contengan información sensible que pueda revelar identidades o caracteristicas de las identidades no autorizadas para ser compartidas, ya sea de personas u organizaciones, o que ponga en riesgo la integridad de ellas. La anonimizacion no debe perder trazabilidad necesariamente, para lo cual existen tecnicas adecuadas.
32
+ Un proyecto de ciencia de datos empieza por la definición del problema, considera la viabilidad y calidad de los datos, define la interpretabilidad del modelo combinando el conocimiento existente del rubro en el que se aplica con la disponibilidad, potencial y limitaciones de los modelos propuestos. Se debe prever la implementabilidad haciendo simulaciones conceptuales de puesta en produccion del modelo en el proceso real para el cual se esta diseñando, definiendo las limitaciones no computacionales. Finalmente una vez elaborado el modelo computacional realizar experimentos de validación y prueba hasta que se haya culminado la validación de las condiciones mínimas para su puesta en producción.
33
+ Los datos debe tener confiabilidad y ser expresiones de la realidad o al menos debe saberse cuál es su imprecisión en esta lectura de la realidad, de lo cocntrario
34
+ Un proyecto de ciencia de datos empieza por la definición del problema, considera la viabilidad y calidad de los datos, define la interpretabilidad del modelo combinando el conocimiento existente del rubro en el que se aplica con la disponibilidad, potencial y limitaciones de los modelos propuestos. Se debe prever la implementabilidad haciendo simulaciones conceptuales de puesta en produccion del modelo en el proceso real para el cual se esta diseñando, definiendo las limitaciones no computacionales. Finalmente una vez elaborado el modelo computacional realizar experimentos de validación y prueba hasta que se haya culminado la validación de las condiciones mínimas para su puesta en producción.
35
+ La explicabilidad de un modelo es la dimensión que define qué tanto un ser humano experto en la materia objetivo del modelo podría explicar a una audiencia informada la lógica del modelo, la forma que tiene de tomar decisiones. Una baja explicabilidad puede coincidir con una alta precisión.
36
+ Es la rama de la inteligencia artificial que se ocupa del procesamiento de datos en formato de lenguaje tal como lo usa el ser humano. Por ejemplo procesa datos en forma de audio o texto, haciendo que los algoritmos reaccionen de manera similar a como reacciona el cerebro humano al entrar en contacto con dichos formatos.
37
+ La interpretabilidad denota la capacidad de un modelo de formar un concepto al momento de demostrar sus predicciones en función de un análisis de las variables sobre todo de entrada. La baja interpretabilidad es causada por la mala selección de variables de entrada, por ejemplo cuando un modelo encuentra un patron de variables de entrada que no coincide con ninguna intuición conceptual de los expertos que estan supervisando el modelo
38
+ Visión computacional es una rama de la intenigencia artificial que se ocupa de la percepción de imagenes a traves de sensores que las traducen a vectores. Hasta el momento casi todos los vectores provenientes de imagenes se procesan por deep learning usando arquitecturas de redes neuronales con diversas tecnicas.
39
+ La computación cuántica, más allá de sus intrincados conceptos, tendrá el efecto que necesitará que los cientificos de datos comprendan la lógica cuántica. Al hacerlo, se accede a una capacidad de sintesis de muy elevado volumen y complejidad que no puede ser ejecutado con la computación tradicional.
40
+ Que el cientifico computacional requiere nociones sobre el hardware de los sistemas informaticos, mientras que el cientifico de datos solo necesita conocer el efecto del hardware sobre parametros de computo de los datos.