Daniela Garcia & Julieta Nieva | R en la Administración Pública & R Markdown | RStudio
R en la Administración Pública & informes de técnicas psicométricas con R Markdown | RStudio Thank you to Sergio Garcia Mora for hosting this meetup. R en la Administración Pública: Cuando la Big Data te empuja a salir de la zona de confort Daniela Garcia Abstract: Muchas veces no tenemos motivación para programar debido a que el Excel lo resuelve todo fácilmente, sin embargo, cuando en mi trabajo nos solicitaron información detallada y actualizada sobre puestos y costos laborales de cada escuela de nuestra provincia (más de 2.000) era aprender o morir en el intento. En esta presentación veremos como a través de R automatizamos un reporte para toma de decisiones gubernamentales con gran precisión y escaso esfuerzo. Bio: Daniela García, Lic. en Relaciones Laborales, Analista de Datos de la Dirección General de Personal - Ministerio de Hacienda y Finanzas Corrientes, Argentina. Scrum Master en Starter - Consultora en Tecnología e Innovación. Colaboradora activa del Club de R para Recursos Humanos. https://www.linkedin.com/in/claudiadanielagarcia/ R Markdown aplicado a informes de técnicas psicométricas Julieta Nieva Abstract: Los psicólogos que realizamos investigación podemos tener algunas limitaciones a la hora de dar devoluciones personalizadas a los participantes voluntarios de nuestros proyectos. Poder analizar gran cantidad de datos, procesarlos rápidamente y poder ahorrar horas de trabajo manual, hicieron que R Markdown se convierta en nuestro aliado. En la presentación se explicará cómo utilizamos estas herramientas en el International Cognitive Research Consortium y cuáles fueron nuestros resultados. Bio: Julieta Nieva, Licenciada en Psicología. UX Researcher en Banco Galicia. Investigadora en ICRC. https://www.linkedin.com/in/julieta-nieva/
image: thumbnail.jpg
Transcript#
This transcript was generated automatically and may contain errors.
Muchas gracias por sumarse a este encuentro, este es el primer meet-up en castellano de la comunidad de RStudio Enterprise, así que estamos muy contentos y entusiasmados por esta oportunidad y también, como decía hace unos momentos, de aprovechar el impulso y la plataforma de RStudio para divulgar justamente el uso de este lenguaje en distintos ámbitos de la comunidad de Hispano Parlante. En particular, muchas gracias a Rachel Dempsey, la manager de la comunidad de RStudio Enterprise, por este espacio. Yo soy Sergio García Mora, no soy parte de RStudio, soy integrante de ARFA-LHR, el Club de R para Recursos Humanos, y el que de alguna manera también originó este espacio.
La idea de hoy es, vamos a tener dos presentaciones, el primero de Daniela y después de Julieta, donde van a contar dos casos de uso distintos, aplicados en ámbitos totalmente diferentes. El caso de Daniela está aplicado en un área de recursos humanos dentro de la Administración Pública de la Provincia de Corrientes, y el caso de Daniela, de Julieta, perdón, se trata sobre cómo aplicaron RMardam para poder generar más de 300 informes personalizados en un grupo de estudio de psicometría, lo cual son casos muy interesantes porque en el caso de Daniela, por ejemplo, se trata de consolidar un montón de información, algo que normalmente trabajamos mucho en las áreas de recursos humanos con Excel y de manera muy lenta y trabajosa, y bueno, ella va a contar cómo lo resolvieron con R y qué ganaron con ello.
Y lo de Julieta, si bien está como centrado en un grupo de estudio, esto de poder generar informes personalizados y poder distribuirlos de manera también mucho más ágil y más precisa sobre todo, nos parece que tienen en ambos casos muchísima aplicación en distintos ámbitos totalmente distintos. Así que primero vamos a tener ambas presentaciones y luego vamos a tener un espacio para hacer preguntas y respuestas. De todas maneras pueden ir haciendo consultas en el chat, también los invitamos a hacer consultas en una aplicación que se llama Slido, que acá Rachel acaba de compartir el link. En esa plataforma pueden hacer preguntas de manera anónima, esta presentación se está grabando y luego va a aparecer en el canal de YouTube de RStudio.
Al igual que en el resto de las comunidades de R, desde RStudio también es algo que promueven y que fomentan y que se comprometen en generar espacios acogedores, en donde todos se sientan bienvenidos y seguros, así que en esencia el código de conducta se resumen a esto, de ser amables unos con otros, de tratarnos con respeto, de esa manera podemos generar una experiencia libre de acoso para todos y todas.
Sin nada más que decir, vamos a darle el espacio a Daniela, para que comience con su presentación.
Presentación de Daniela: R en la Administración Pública
Bueno, antes que nada gracias Sergio, Richel, por este espacio, bueno por la oportunidad de venir a compartir un poquito nuestra experiencia y a todos por asistir. Mi nombre es Daniela García, soy licenciada en Relaciones Laborales, egresada de la Universidad Nacional del Norte. Todo este tiempo estuve, bueno como todos, tratando de buscar un poquito mi lugar en la profesión, digamos, y por ahí con la pandemia me di cuenta que quería participar de esta transformación digital, por así decirlo, y en esta búsqueda me encuentro con el Club de R, que bueno, un poquito es como un hallazgo inesperado, porque tenía un problemón en el trabajo, así que en paralelo surgió un curso acredita Sergio sobre, bueno, puntualmente R en Recursos Humanos, dije ahora o nunca.
Bueno, también, como les decía, trabajo en el Ministerio de Haciendas y Finanzas de la Provincia de Corrientes y además soy Scrum Master y colaboradora del Club de R, ya me uní. Puntualmente en este caso les quería comentar mi experiencia en el ámbito público, donde justamente el Big Data me obligó un poco a trabajar con R, ahora les voy a comentar por qué.
Como les decía, trabajo en el Ministerio de Haciendas, que concentra la liquidación de sueldos de todos los ministerios, estamos hablando de más de 50.000 agentes y de los cuales, puntualmente la mitad de ellos y un poquito menos, están en el Ministerio de Educación, que es el que me trajo hasta acá. En nosotros concentramos, como les decía, toda la liquidación, por lo tanto tendríamos que cruzar nuestra fuente de base de datos con las de los demás ministerios, si quisiéramos obtener, bueno, data analizada, información para tomar decisiones, digamos. Esto es súper pesado, es súper pesado, nosotros solicitamos al área de sistemas, por ejemplo en este caso, puntualmente la información de un ministerio y aún así nos resultó complicado trabajarla y esto nos derivaba, como consecuencia, que los informes de gestión estén desactualizados porque nos costó tanto hacer, tal vez nos costó un mes y medio o dos hacer algo, y por ejemplo teníamos información de junio, lo terminamos en julio, en agosto y esa era la información que teníamos para cuando el decisor podía acceder a esa información.
Se hizo imposible porque, como les decía, se realizaron algunos cambios en el proceso de liquidación puntualmente en el Ministerio de Educación, como les decía, concentra una gran cantidad de, no solamente de agentes, sino que estas personas tienen varios puestos, por ejemplo, recordarán la profesora de matemática, no es que trabaja solamente en el secundario que uno va, sino que trabaja en cinco escuelas y hasta siete puede llegar a tener, entonces este tipo de complejidad nos llevó a investigar a mí y a mi compañera María Belén González, cuáles serían las alternativas para el Excel.
Así que bueno, ¿cuál fue la primera idea que ella tuvo? Bien, eran 16 megas en un solo Excel, mi computadora no reaccionaba con este pedido, digamos, me lo cargaba y si yo le agregaba algún filtro directamente no continuaba.
Entonces, en este contexto nos habían pedido, en principio, el costo de los salarios por departamento. Corrientes es una provincia de Argentina que tiene más o menos 25 departamentos, y bueno, por supuesto estos departamentos tienen localidades, nosotras decidimos con la compu de ella, que era la mejor, incluso en su casa, por decirles, ni siquiera usábamos la computadora al trabajo, decidimos dividirlo en 25 archivos, cosa de que lo podamos manipular. Bueno, la verdad es que nunca me amigué con el Excel, usamos filtros y variantes de contar, sí, no me acuerdo la que se hizo, pero era una monstruosidad de mezclas de fórmulas del Excel, que en definitiva era copiar, pegar, copiar, pegar y después hacer una suma, era totalmente ineficiente.
Bueno, esto lo sorteamos de alguna manera, el problema fue cuando nos dijeron actualizan el anterior y quiero saber el costo de cada escuela. Me pareció, no sé, imposible, o sea, directamente estuvimos ahí, bueno, aprenderemos, decíamos, no sé, veamos de qué trata el Power BI, o no sé, bueno, y en ese contexto surgió el curso, ¿no?, de R para Recursos Humanos, y la solución básicamente.
Así que bueno, en todo este lío que les comentaba, son 48.500 puestos de 5 niveles educativos, sería nivel inicial, primaria, secundaria, privada y consejo, que serían suplentes, de 2.000 escuelas, 50 tipos de cargos, puede ser un docente de maestro, maestro de primera, de segunda, preceptor, director de primera, de segunda, la zona que tiene, o sea, realmente era un Excel de columnas de hasta la Z, más o menos, y bueno, y de fila la cantidad de puestos. Después 26 localidades y no podíamos, o sea, no podíamos cruzar todo esto y terminar este año prácticamente, cuando nos estaban pidiendo información actualizada.
Los paquetes de R utilizados
Felizmente nos enteramos que tiene paquetes, o sea, uno dice programación en R y por ahí nos asustamos un poquito, veníamos de otro background, mi compañera es licenciada en administración, entonces por ahí no estábamos muy familiarizadas con este tipo de trabajo. Al entrar al curso y conocer los paquetes, comenzó la marcha. Acá tenemos, bueno, en este caso utilizamos 9 paquetes, básicamente, y una vez que abrimos el archivo, ya comenzamos a trabajar.
En principio, el paquete RIT, que nos sirve para leer los archivos en Excel, eso es un principio. Después, utilizamos el fanmodeling para hacer análisis exploratorio de datos, eso nos sirvió para dimensionar el volumen del trabajo con, no sé, capaz tres, cuatro funciones de modeling, ya teníamos una idea del promedio, de la mediana, de la desviación, cuestiones que, sinceramente, en Excel te devarían un montón de funciones, con fanmodeling sabes dónde estás parado, y podés, en base a eso, ir programando lo que estás buscando en definitiva.
Después, usamos deblayer para la manipulación de datos, yo le digo por dooming, porque la verdad es que las funciones que tienen seleccionar, filtrar, ordenar, mutar, bueno, y sumar ahí serían las funciones que tienen que ver con estadística, son las que estamos familiarizados, en realidad, tranquilamente, y nos ayudan a realizar el trabajo de la forma en la que uno lo pensaría, porque en definitiva, por ejemplo, si yo quiero saber de los docentes que están en la escuela primaria, puedo solamente seleccionar eso, para que el objeto sea más chico, después puedo realizar un filtro, tal vez quiera elegir los preceptores nada más, o tal vez categorizar entre docentes y no docentes, y decirle en el código cuáles son docentes y cuáles son no docentes.
Seguidamente, tenemos el paquete para categorizar los datos, que es el FORCATS, nos sirvió muchísimo, porque de hecho, que como les digo, la diversidad entre impuestos, entre, ¿cómo es? Los niveles educativos, nos obligaban a tener una idea para que las personas que necesitaban ver el informe, que eran la ministra de educación, y también llegaba hasta el gobernador, tengan una idea de cuál es la mayoría, de cuál representa la mayoría, digamos, uno trata de solucionar todos los problemas, pero en definitiva arrancamos por los que impacta más, o por los que tienen más cantidad, eso depende de la estrategia, ¿no?
En cuanto a la visualización de los datos, usamos GPLOT2 para elaborar y automatizar los gráficos, y CABLE, extra para hacer tablas lindas. En cuanto a la elaboración de los gráficos, que es algo que hacemos todos también, como digo, en este caso se pueden automatizar los gráficos no solamente con el tipo de gráfico que uno pretende mostrar, sino también con colores, con formatos, realmente es copiar y pegar y cambiar el objeto, y ahí ya podés utilizar el mismo gráfico para todo lo que necesites. Y bueno, CABLE para hacer tablas lindas, este, por ahí, R por ahí es un poco rústico en cuanto a la forma de mostrar las cosas, pero para eso están los paquetes que nos ayudan a hacer más linda, también en definitiva lo que es la visualización, que es una parte importante del análisis de datos, de que sea amigable, sea intuitivo, de que tenga un storytelling.
Automatización con R Markdown
En principio esta parte del script, bueno, te permite colocar obviamente el título, el autor, la fecha, y acá con estos códigos que van, lo que hacemos es cambiar el tema del informe, bueno, elegir el color, determinar si queremos que se vea o no el código, realizar alguna acción para ocultar el mismo, y bueno, básicamente eso es. Ah, y bueno, incluso para permitir que se descargue el código también se puede hacer. Todas estas son configuraciones que se van definiendo al principio de R Markdown.
Con respecto a esto, que nos costó, fue un poquito difícil al principio, y uno termina siendo mejor malo conocido, entonces querés volver al Excel, pero bueno, una vez que empezamos a ver que esto tenía sentido, continuamos, continuamos, hasta que, bueno, este fue el primero de varios informes que tuvimos que revisar de esta magnitud.
Lo que se ganó es la automatización de reportes, porque este reporte lo hicimos una vez, sí, nos llevó un mes, poquito más, pero nos viene lo mismo, y es cuestión de cambiar el dataset, que es exactamente igual, y automáticamente se irá viendo, por supuesto, si usamos R en Markdown, habrá que volver a revisar los datos para hacer los comentarios pertinentes de un analista, pero lo que es el análisis de datos en sí, ya está hecho.
Lo que se ganó es la automatización de reportes, porque este reporte lo hicimos una vez, sí, nos llevó un mes, poquito más, pero nos viene lo mismo, y es cuestión de cambiar el dataset, que es exactamente igual, y automáticamente se irá viendo.
Otra cosa es que estos códigos son sumamente reciclables, los usamos después para realizar otro tipo de informes un poquito más complejos, con más bases de datos que no estaban unificadas. Después, la sintaxis de simple, en definitiva, permite aprender otro tipo de lenguaje de programación. Hay muchas maneras de hacer lo mismo, eso también aprendimos en el club de R, hay muchas formas de escribir, muchas formas de hacer, es cuestión de buscar en la comunidad que es muy amigable y abierta, nada más, cómo se podría realizar algo.
Así que bueno, eso sería todo por mi parte, les agradezco, de parte mía y de mi compañera que hoy no pudo asistir, pero cualquier consulta, me dicen.
Presentación de Julieta: informes psicométricos con R Markdown
Bueno, antes que nada, gracias por invitarnos hoy a contar un poquito de lo que hacemos. Les cuento, bueno, yo soy Julieta y tal cual les voy a contar acerca de cómo generamos informes de técnicas psicométricas con R Markdown. Yo soy psicóloga y trabajo en un equipo de investigación, les cuento un poquito sobre mí.
Bueno, soy licenciada en psicología, estudié en UADE, la Universidad de la Empresa. Soy investigadora en el ICRC, el International Community Research Sponsor Team. Somos un grupo de investigadores, ahora les cuento un poco más de qué se trata. Trabajo como UX Researcher en el Banco Galicia. Y me gusta mucho todo este tema de la programación y análisis de datos.
El ICRC es un grupo que se creó en pandemia. Somos un grupo de psicólogos, estudiantes de psicología, licenciados en marketing, en negocios y demás. Que nos unimos para investigar. Las investigaciones que hacemos son básicamente de conducta, cognición, personalidad. Y también nos interesa bastante el tema de la educación.
Nosotros lo que hicimos fue hacer mediante técnicas psicométricas. A través de videollamada hicimos test con distintas personas. Eso es lo que se llama test psicométricos. Juntamos con una persona para que responda a una serie de test. Esos test devuelven básicamente una base de datos, un Excel. Y lo que tenemos que hacer es analizar. Lo que nos da en esos test son números brutos. Que no significan nada, sino que hay que darle el sentido. Hay que hacer que esos números tengan un porqué.
Nosotros hicimos toda esa recolección de datos. Teníamos las bases de datos. Y aparte de ahí, algo que nos pareció importante, además de tomar todos los test, era poder devolverle a cada persona que se tomó el tiempo, que era alrededor de dos horas, entre dos y tres horas por videollamada, con nosotros haciendo un montón de test, poder devolverles de alguna manera una retribución por ese tiempo y esa predisposición.
Por lo tanto, tomamos una serie de los test que les habíamos tomado y les quisimos dar esa devolución. El tema es que teníamos que hacer más de trescientas devoluciones personalizadas, donde también teníamos una gran cantidad de datos, había muchísimos números, muchísimos datos en una hoja de Excel. Teníamos muy poco tiempo, porque también les prometimos esta devolución e inmediatamente la gente nos pedía si ya les podíamos mandar cuál era esa devolución a los test que les había tomado tanto tiempo y tanto esfuerzo.
Necesitábamos que sea una producción profesional. Nosotros como psicólogos, queriendo aportar a toda esta investigación psicológica y demás, y con nuestro ICRC por detrás, queríamos mostrar cierto profesionalismo en la producción en lo que le íbamos a hacer llegar a las personas. Por lo tanto, ya desde este primer momento, pensábamos que Excel no podía ser una opción. No le podíamos mandar a cada participante un Excel.
También necesitábamos incluir gráficos. Ahora les voy a mostrar, pero hay una parte en donde tenemos una serie, es un gráfico, nos hacen comparaciones sobre distintas subescalas, de una escala que tomamos, y necesitamos poder compararla. Así que necesitamos un gráfico para cada persona, y necesitamos que sea sencillo, que sea fácil de leer.
Yo en ese momento había hecho el curso de ERRE con Sergio, y solo con ese poquito que había aprendido, con esa introducción a lo que todavía me faltaba aprender un montón, se me ocurrió que podíamos hacer mucho. Entonces propuse en el equipo poder utilizar, por primera vez, porque la verdad es que no hay muchos equipos de investigación que tengan algún acercamiento a lo que es programación, o el análisis de datos más profundo, más complejo. Entonces propuse hacerlo, y bueno, fue un desafío poder armar todo esto para que saliera lo que ahora les voy a mostrar.
Así que bueno, elegimos usar RStudio, creímos que era la mejor herramienta para generar este tipo de devolución.
Estructura del informe psicométrico
Lo primero que pensamos era lo que teníamos que hacer. ¿Qué era lo que necesitábamos poner en ese informe? Así que armamos un croquis más o menos de lo que tenía que tener. Teníamos los resultados del perfil de memoria de trabajo, que es un test que se llama AUSPAN, el perfil de procesamiento visoespacial, que es un test que se llama SSPAN, y los resultados de las estrategias de aprendizaje y autorregulación. A cada uno de estos necesitábamos ponerle una descripción, una introducción para que la persona que los tuviera leyendo entendiera de qué se trata.
A partir de eso tuviera los resultados del mismo participante, y una respuesta condicional. Si sacó entre tanto y tal número, que aparezca una respuesta. Si dio entre tal y tal otro número, que aparezca otra respuesta, y demás. En cada uno de estos tres test. Y en este último, en estrategias de aprendizaje y autorregulación, además necesitábamos este gráfico donde podíamos comparar, y necesitábamos una línea también que nos diga cuál era el punto de corte, y un resultado y una recomendación.
Además, queríamos agregarle a este informe el logo del ICRC, el nombre de la investigación, los agradecimientos para la persona que participó, y las redes sociales para que nos sigan, y puedan también sumarse a nuevas investigaciones. Así que era todo esto lo que queríamos poner en un informe.
Yo acá les traigo el código, es un código QR, lo pueden escanear si quieren con el celular, sino poniendo rpub.com barra jotañeva, ahí mismo ya aparecen, hay una versión 1 y una versión 2, de cómo fuimos iterando, decimos en UX, lo que fue el código para que vaya quedando mejor, para que se vaya viendo mejor y llegando de otra manera.
El código y la visualización del informe
Les voy a mostrar un poco qué es lo que escribí, y qué es lo que aparece realmente. En la página lo van a ver todo completo, incluso si ponen el botón que dice Code, es donde pueden ver el código escrito.
Esta imagen yo la generé con Canva, la verdad es que no fue un gran esfuerzo, poder sumarme a Canva, poner nuestro logo, un nombre que quede presentable y que sea llamativo. Entonces yo lo pude cargar a esta primer parte, y que no sea solamente texto, para que quede más llamativo.
En esta parte, la primer parte, lo que necesitábamos era los resultados del participante, y acá dice 1, y yo la verdad es que acá puse participante, 105, bueno, yo solamente con esto, que era la idea, poder solamente en un línea de código, poder cambiar el número, y que nos traiga automáticamente el participante de esos más de 300. Porque la realidad es que mandamos 300, pero fueron muchísimos más. Entonces yo de esta manera, solamente cambiando ahí el número, para traer el resultado del participante que yo quisiera, y se va a reflejar acá.
Yo trabajé con, si mal no recuerdo, fueron tres Excel, o sea, tres bases de datos, por un tema de el tiempo en el que tardó en llegar la información. Se hizo en tres veces distintas. Sin embargo, en la versión 2, es directamente un solo archivo con toda la información.
Yo digo, en los casos en el que tomando Span diera de tal número a tal número, que tenga un tipo de respuesta. Si tiene otro número, que dé otra respuesta. Y así, que es esta parte que está acá.
Lo que yo les decía, tener el número bruto y cambiarlo a que ese número tenga un sentido. Y después, acá abajo, lo que yo le pido es siempre que me traiga el número y que me traiga el resultado en número y la interpretación de ese resultado.
Cómo se ve es así. Dice quién es el participante, qué es la memoria de trabajo, cuáles son los resultados de esta persona, y cuál es la interpretación del resultado que le dio a esa persona. Porque no me sirve a mí decirle a la persona, te dio 25, sino decirle, es alto, es bajo, se puede mejorar, está dentro del promedio. Esa es la idea.
El nombre del test que tomamos, qué significa, y abajo cuál es el resultado. Por ejemplo, acá dice, tu capacidad de mantener y manipular datos de tipo visoespacial es muy alta, estás por encima del 75% comparado con estudiantes de Estados Unidos. Felicitaciones. Esto es lo que nosotros queremos llegar.
Ya en esta parte, en el perfil de estrategias de aprendizaje, acá está el gráfico que les contaba. Donde teníamos que tener en el 50, que es el punto de cortes, si está por arriba, estaría dentro de lo esperable o sobre lo esperado, y por debajo podría ser algo para trabajar. Entonces, todos los que dieran bajo, nos pareció que como psicólogos, teníamos que poder decir, poder dar una recomendación.
Como la mayoría de nuestros participantes eran estudiantes, si dio bajo en regulación del esfuerzo, supongamos, poder decirle a la persona cómo hacer para mejorar esta parte, para poder estudiar mejor, ya que se trata de estrategias del aprendizaje.
Acá, por ejemplo, le estoy pidiendo que los resultados me recorten, la fila 1, la fila 2, la fila 3, y cada una significa algo, ¿no? Yo le pedí que me recorte la base de datos esto, que se llama interés. Entonces, yo después acá, donde estoy escribiendo qué es lo que quiero que me aparezca en la pantalla, le pido que me reemplace, genero como una plantilla para que esa base de datos me reemplace, y además me reemplace, me traiga la información del porcentaje, y que entienda si ese porcentaje está por debajo o por encima de lo esperado. Así damos recomendación o felicitamos.
En esta última parte, donde también teníamos que agradecer por la participación, porque ya les digo, fueron entre 2 y 3 horas que cada persona, cada voluntario nos regaló para poder hacer esta investigación, y que la verdad es que los equipos autogestionados, como el nuestro, necesitamos gente que quiera participar, que se sume, que nos dé su tiempo y su esfuerzo, y nosotros poder dar este tipo de evolución es muy importante.
Lo que pude traer era la imagen chiquitita de LinkedIn, Facebook, y Research Aid, que es donde nosotros cargamos nuestras investigaciones científicas, y el link de LinkedIn, Facebook y demás, para que nos puedan seguir.
Hubo mucha gente, hubo muchos voluntarios que participaron, que son del área de la investigación, de la psicología, y mi idea al hacer esto era que otros grupos también lo puedan replicar, porque al fin y al cabo, si es el amor a la ciencia, a la investigación, es que más personas puedan acceder a esto de una manera rápida, sencilla, ágil, amigable, que lo puedan aprender tan rápido como lo aprendí yo, con conocimientos tan básicos, y que el día de mañana lo podamos hacer en muchos grupos de investigación y podamos tener más datos, lo cual significa resultados más generalizables, y que llevan mejor a la población.
Mi idea al hacer esto era que otros grupos también lo puedan replicar, que lo puedan aprender tan rápido como lo aprendí yo, con conocimientos tan básicos, y que el día de mañana lo podamos hacer en muchos grupos de investigación y podamos tener más datos, lo cual significa resultados más generalizables.
Así que bueno, ya terminando, los resultados que obtuvimos, obtuve con este código, fueron completamente distintos a los que pensamos cuando dijimos lo hacemos en Excel, no, no era una posibilidad, fue sencillo, la verdad es que dentro, yo era la primera vez que me sentaba a escribir un código, y la verdad es que tuvo su complejidad, pero después se hizo sencillo, fácil, buscando en Google, preguntando en la comunidad, siempre hay alguien que te dice tengo cinco minutos, te doy una mano y te ayudo, y lo sacamos.
Salió de una manera muy profesional, la verdad es que todas las personas que lo vieron, lo vieron súper profesional, sencillo de entender, nosotros lo enviamos en un formato HTML, entonces había que abrirlo, Chrome, Internet Explorer, y creímos que podría haber algún problema en todo aquel que lo recibiera, y sin embargo no hubo ningún tipo de inconveniente, porque era igual a una página de Internet.
Así que bueno, esto fue, y desde el equipo se recibió también con mucha alegría de que a partir de ahora tenemos estas herramientas disponibles, y que podemos seguir creando. Así que bueno, esto es todo, les dejo mi LinkedIn, ahí está mi email por si me quieren hacer alguna consulta. Muchas gracias.
Preguntas y respuestas
Muy bien, excelente, muy interesante el caso, pues yo me imaginaba como usando esto siempre en, por ejemplo, en encuestas de clima, y viste que a veces también uno de los problemas que tenemos en trabajando de recursos humanos es que como que tardamos mucho en entregar resultados, ¿no?
Hay una que aplica para las dos, que es, o sea, cómo comparten la información, porque por ejemplo, Don C decía, cuando Daniel estaba presentando, bueno, una de las ventajas de Excel es que lo podés tener como en un ambiente compartido y todos acceden a eso, ¿no? Entonces, Daniela, si querés abrir el micrófono, y bueno, ¿cómo comparten después los informes que hacen?
Bueno, justamente la primera vez que usamos este informe, por ejemplo, que han visto, precámbricamente íbamos subiendo en el drive y ahí íbamos actualizando porque desconocíamos, digamos, pero después, bueno, como normalmente hacen los desarrolladores de todos los lenguajes de programación, usamos un repositorio en Github.
Pero bueno, el informe, por ejemplo, que ve el gobernador, ¿cómo lo recibe? Bueno, en este caso, por ejemplo, cuando nosotros le damos a mi jefa, que es la que proyecta en una reunión al gobernador, por ejemplo, lo que hace ella es con el clic derecho le pone abrir en un navegador y ahí automáticamente sale y cualquiera lo puede abrir, o sea, todos tenemos un navegador en la computadora. Para el gobernador va directamente sin código, sin nada, texto gráfico, y nada más, digamos.
Respecto de compartir la información, otra consulta que surgía en particular, digamos, o sea, con los grupos de estudio, era si esa información quedaba en una nube, o sea, publicada, por ejemplo, en RPUPS, o cómo hacían para proteger la confidencialidad de cada participante, de cada voluntario.
Sí, en ese caso, en realidad, como las bases de datos están en la computadora y no se suben a ninguna nube, todo lo que yo subí, finalmente, fue todo con la base de datos inventada. O sea, son damis, son de mentira. Y entre nosotros, el dato real nunca sale. Eso siempre es confidencial. Incluso si están convertidos a números, o sea, que si hay casos reales, pero en realidad están convertidos a números y no con nombre y apellido, eso de ninguna manera, por nuestra confidencialidad que nosotros brindamos como psicólogos, de ninguna manera no se puede acceder por ningún lado.
Daniela, vos contabas que tardaban entre uno y dos meses para hacer los informes antes. ¿Ahora cuánto están tardando?
Bien. A ver, lo que debería, una vez que el sistema nos quiere pasar, porque eso también nos demoraba, la dependencia. Nada, llevará cinco minutos que es básicamente actualizar el archivo, poner, por decirle, nosotros trabajamos por meses, entonces en vez de decir, no sé, diciembre, va a decir enero, enero 22, cambiamos el Excel y nada más, lo volvemos a imprimir, obviamente, lo que va a volver a cambiarse es lo lógico que es lo que hace un analista, que es ver, por ejemplo, la relación con el mes anterior, esto ha tenido un incremento, del análisis. Pero el reporte en sí, cinco minutos. O sea, pasamos de un, de uno a dos meses a cinco minutos.
Acá una de las preguntas que llegó para Julieta en Slido, tiene que ver, o sea, dice, que hizo Pedro, en el caso de psicometría, como los resultados son diferentes para cada usuario, ¿cómo hicieron para que un usuario viera su propio resultado, pero no el de los demás?
Nosotros tenemos resultados de cada persona, o sea, cada persona responde
Featured software#