Que data de software página web

Al igual que muchos sitios web, los sitios web de BSA usan cookies para garantizar el funcionamiento eficiente de esos sitios web y brindar a nuestros usuarios la mejor experiencia posible. Puede obtener más información sobre cómo usamos las cookies y cómo puede cambiar la configuración de cookies de su navegador en nuestra declaración de ... Na caixa de entrada no topo da página, digite a URL da página da web que você deseja converter para PDF. Inicie a conversão da página web pressionando o botão correspondente. Salve o novo PDF em seu computador apertando o botão de download. El primer uso práctico en el que aplicó WikiData fue en la generación en un único sitio de estos conectores entre idiomas, de forma que ahora sí que existe una fuente que vincula un artículo ... Uma página web é o nome que se da a um documento eletrônico. Web é a forma resumida e adaptada de WWW ( World Wide Web). A estas páginas se podem ter acesso através de uma conexão de internet e estão compostas por textos, informações, links e aplicações informáticas. Extrae datos de muchas bases de datos de diferentes páginas web. Reto. Tarea: Encuentra una página web con una tabla y obtén información de ella. Tip. Una vez que tengas la tabla en tu hoja de cálculo, lo más seguro es que quieras jugar con los datos o cambiarlos de hoja. Es un montón de trabajo crear un sitio web profesional, así que si eres nuevo en el desarrollo web te animamos a empezar poco a poco. No vas a construir otro Facebook de inmediato, pero no es difícil tener tu propio sitio web sencillo en línea, así que vamos a empezar por ahí. Estas herramientas son de gran utilidad para cualquiera que trate de recolectar datos de una página web. ... el binomio de web scraping y data as a service más completo. ... Es decir que te permiten emplear su software al mismo tiempo que también puedes contratarles todos los servicios de web scraping que tu empresa necesite. Consigue resultados sobre todos los elementos de tu página web y descubre cuáles son los puntos que impiden a tus visitantes comprometerse aún más en tu página web. En nuestro ejemplo de encuesta de satisfacción página web, retomamos todos estos elementos. Utilízalo y adáptalo a tu página web. Mediante el web scraping se extraen y almacenan determinados datos de una página web. Todo el proceso se lleva a cabo de manera automática gracias a un software especial. Con ayuda de esta técnica, las empresas ganan en competitividad y desarrollan productos con más rapidez, pero el proceso no siempre es legal. Administrar una página web. Un CMS, es un sistema que contribuye a administrar nuestra página Web de forma amigable, sin necesidad de tener conocimientos relacionados con programación.. El papel más importante que desempeña es el de permitir cambiar contenidos e imágenes en cualquier momento. Un CMS, cuenta con una interfaz de trabajo, a la cual se ingresa por medio de un USUARIO Y SU ...

Eliminar las extensiones de Jokerlivestream en el navegador

2020.09.17 09:38 octavioraulxd Eliminar las extensiones de Jokerlivestream en el navegador

Eliminar las extensiones de Jokerlivestream en el navegador
Seguramente en un punto de tus navegaciones, te has topado con alguna página maliciosa que suele tener los suficientes virus como para lograr dañar algunos archivos de tu computador. Incluso, son capaces de robarte la data de algunas de tus cuentas bancarias.
Uno de esos sitios webs suele ser Jokerlivestream, los cuales suelen contener virus y abre algunas ventanas emergentes que suelen disparar espías del computador y robar datos de nuestras tarjetas. Justo eso es lo que menos esperamos al navegar en un portal web.
Es por ello que hoy te estaremos comentando como eliminar la extensión de JokerLivestream del navegador, fácilmente, así que no te preocupes, porque solucionaremos esto.
https://preview.redd.it/jadim9c2wnn51.jpg?width=500&format=pjpg&auto=webp&s=0879cb8a32f58ac9b79dd150916d710dc939dd4b

¿Qué es Jokerlivestream?

Jokerlivestream, se trata de un portal web que ofrece servicios de videos streaming gratuitamente, sin embargo, para tu acceder a algunos de estos, te pide que descargues una extensión que suele acceder a todos los datos de tu computador.

¿Cómo se llama la extensión de Jokerlivestream.com?

La extensión que ellos tratan que tu instales en tu navegador, se llama “Sports Kingdom”. Con regularidad, si tú la niegas, tiende a insistir en que la bajes para tu navegador, volviéndose algo tediosa.
Además, no solo ello, sino que contienen una cantidad innumerable de anuncios, descuentos, ofertas, cupones, y mucha información de publicidad no deseada. Así que debes tener cuidado una vez que ingreses a ella.

¿Cómo podemos infectarnos por Jokerlivestream.com?

Es muy fácil como una página web puede infectarnos. Tan solo hay que tener archivos infectados o ventanas emergentes para que vaya soltando virus a través de nuestro ordenador. Además, a este punto no sabemos qué clase de virus soltará el portal.
También es cierto que si te suscribes a su página, al correo electrónico te puede llegar promociones que contienen archivos maliciosos. Además, si sueles ver contenido para adulto, con regularidad también se mantiene allí, ya que se aloja directamente donde la información es más sensible.
Además, no olvides que debes tener mucho cuidado con lo que descargues, pues muchos sitios webs contienen archivos con virus, y tú no lo sabes, porque tampoco te suelen avisar.

¿Qué es lo que hace este malware para que debamos evitarlo?

Todo virus que se encuentre en nuestro ordenador es sumamente malo, ya que con regularidad, suele dañar nuestros archivos y puede obtener información importante, como la bancaria. Es por ello que te estaremos comentando qué es lo que realiza este virus.
· Suele alojarse en todos los navegadores webs, tales como Mozilla Firefox, Google Chrome, Microsoft Edge, Safari e Internet Explorer.
· Suele deshabilitar todos los antivirus y escudos protectores, para él alojarse donde pueda.
· También logra bloquear algunas aplicaciones y además, suele realizar cambios en el panel de control que alteran la configuración de la pantalla o el sistema en general.
· Puede obtener la información más importante que guardas en tu ordenador.
· Es capaz de conectar directamente el ordenador con el sistema de algún hacker, donde pueden revisar toda la información que tienes guardada.
· Es capaz de cambiar todos los ajustes que se encuentra en la página principal, también la barra de búsqueda, las pestañas, extensiones; logrando un total control del ordenador y de los sitios web, y habilitando algunos portales que suelen contener contenido sensible.

¿Cómo podemos eliminar este virus de nuestro ordenador?

Vamos a realizar varios pasos, para que tengas totalmente eliminado el Jokerlivestream.com del ordenador.

1. Tareas

El primer lugar donde eliminaremos el malware, es de Windows. Tendremos que marcar en nuestro teclado CTRL+ALT+Supr, el cual permitirá abrir el administrador de tareas. Luego, tan solo tendremos que eliminar cualquier proceso que no se vea normal. Regularmente los archivos no tienen iconos, así que puedes conseguirlo fácilmente.

2. Windows

Para eliminarlo de Windows, debemos presionar justamente su tecla y la letra R. Se abrirá como una barra de búsquedas y colocaremos “regedit” y colocaremos los siguientes textos:
HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\Windows\CurrentVersion\Run
HKEY_CURRENT_USER\Software\Microsoft\Windows\CurrentVersion\Run
HKEY_LOCAL_MACHINE\SOFTWARE\Wow6432Node\Microsoft\Windows\CurrentVersion\Run
Luego, debes colocar “Random” y para finalizar “%appdata%.”, luego de eso, tendremos que borrar estos archivos.

Segunda opción

Eliminaremos el archivo de forma sencilla y por el proceso que todos conocemos. Tan solo debemos dirigirnos a panel de control y abrir la carpeta que dice “Desinstalar o instalar programas”.
Una vez que estemos dentro de esta carpeta, tendremos que eliminar todos los archivos que lleven un nombre raro o extraño que nosotros no hemos instalado. Ya que las eliminamos, solo nos queda proceder al siguiente paso

¿Cómo eliminar este archivo malicioso de los navegadores?

Es bastante fácil de realizar estos pasos, así que solo debes quedarte viendo o leyendo.

Google Chrome

Lo primero que haremos es abrir el navegador, y luego veremos en la esquina superior derecha con tres puntos. Luego, iremos directamente hacia “Configuración”, luego iremos directamente a las extensiones, no te preocupes que se encuentran visiblemente.
Una vez que estemos allí, con regularidad nosotros sabemos cuáles son las extensiones que instalamos, pues es en ello que cuando veas un archivo extraño, sospechoso, necesariamente hay reiniciar el navegador para que haya realizado todos los cambios que colocamos.
Nuevamente entraremos a Google Chrome, iremos al menú y luego a configuración nuevamente,. Ahora tendremos que ver la pantalla y cliquear justo donde dice “Restaurar la configuración a los valores predeterminados originales” y por último le daremos a aceptar y confirmar que está de acuerdo
A través dela configuración también puedes desactivar todas las publicidad y así puedes ver un video totalmente tranquilo.
Finalmente como puedes notar, son pasos realmente fáciles que puedes realizar en tan solo pocos minutos. Usualmente los ajustes que realizamos en Chrome, similar se tienen que hacer con los demás navegadores. Recordemos que el objetivo es quitar los malware de todas las ubicaciones de nuestro computador.
Una vez que culmines el proceso, podrás notar que hasta las navegaciones del sitio web se pueden realizar mucho más rápido, así que ya no hay excusa, porque puedes hacer todo el proceso desde la comodidad de tu hogar.
Empieza ya, antes de que el malware consuma toda tu información.
submitted by octavioraulxd to u/octavioraulxd [link] [comments]


2020.07.24 10:53 melisaxinyue Cómo Web Scraping Ayuda a Hedge Funds Obtener Ventaja

Por favor haga clic en el artículo original: Cómo Web Scraping Ayuda a Hedge Funds Obtener Ventaja
Se ha vuelto imposible ocultar datos previamente ocultos. Muchas herramientas avanzadas ahora pueden extraer nuevos datos o incluso extraerlos de varias fuentes en Internet. Un análisis más profundo ha permitido a los fondos de cobertura explotar una fuente alfa importante nueva y en crecimiento.
A principios de año, Greenwich Associates y Thomson Reuters colaboraron en un estudio para ofrecer un conocimiento sobre los tremendos cambios en el panorama de la investigación de inversiones. Con el título, "El futuro de la Investigación de Inversiones", contiene muchos factores contribuyentes que respaldan este cambio cualitativo y tiene algunas observaciones específicamente informativas sobre datos alternativos.
https://preview.redd.it/45coxf0tqrc51.png?width=620&format=png&auto=webp&s=3f2a00406793b46e42e1fd1fee937cdd426fe4a2
La importancia de los conjuntos de datos alternativos había sido revisada previamente; estos incluyen datos de geolocalización e imágenes satelitales, están demostrando que cubren fondos hay un montón de alfa sin explotar en estos conjuntos de datos para instituciones listas para invertir su dinero en su adquisición, para que puedan aprovechar las ventajas de información importante en la competencia.
Según el estudio de Greenwich/Thomson Reuters, está claro que la empresa de inversión promedio invierte alrededor de $900,000 en datos alternativos anualmente, mientras que sus datos alternativos tienen una estimación de los presupuestos anuales de la industria actualmente en torno a $300 millones. Esto es casi dos veces más que el año anterior. En base a estos datos, web-scraped data se han identificado como los datos más populares adoptados por los profesionales de inversión.
https://preview.redd.it/norg15juqrc51.png?width=418&format=png&auto=webp&s=1f2b21c54cb116ac5f4864504ffced8930310b05
Fuente:
En el proceso de web scraping (considerado como "data scraping", "spidering" o "Extracción de datos automatizada"), el software se utiliza para extraer datos que son potencialmente valiosos de fuentes en línea. Mientras tanto, para los fondos de cobertura, tener que pagar a las empresas para obtener estos datos en particular puede ayudarlos a tomar decisiones de inversión más inteligentes y razonables, incluso antes que sus competidores.
Quandl es un ejemplo de una empresa así y ahora es el centro de atracción en la revolución de los datos alternativos. Lo que hace esta compañía canadiense es scrape la web para compilar conjuntos de datos, o colaborar con expertos en dominios, y luego ofrecer los datos a la venta a los fondos de cobertura, así como a otros clientes que muestran interés.
Hay muchas formas de web-scraped data según lo informado por Greenwich, que incluyen información de redes de expertos, precios de productos, datos de tráfico web y tendencias de búsqueda.
Un ejemplo es cómo Goldman Sachs Asset Management scrape el tráfico web de Alexa.com, que pudo reconocer un aumento vertiginoso en las visitas al sitio web HomeDepot.com. El administrador de activos pudo adquirir las acciones antes de que la compañía aumentara su perspectiva y cosechar los beneficios cuando sus acciones finalmente se aprecian.
Entre sus diversas estrategias, una compañía de datos alternativa, Eagle Alpha, scrape datos de precios de grandes minoristas; y esto ha demostrado ser valioso en la provisión de un indicador direccional para las ventas de productos de consumo. Por ejemplo, cuando los datos se obtienen de sitios web de electrónica en los Estados Unidos, la compañía puede observar que los productos GoPro están disminuyendo su demanda y, por lo tanto, la conclusión correcta es que el fabricante de la cámara de acción no alcanzará los objetivos 2015Q3. Más del 68 por ciento de las recomendaciones fueron comprar las acciones dos días antes de que se declarara públicamente el bajo rendimiento de GoPro.
El valor de los datos de las redes sociales no puede ser subestimado. Es el conjunto de datos más grande que nos ayuda a comprender el comportamiento social y las empresas están scraping activamente estos datos para descubrir su valor oculto.
Según un informe reciente de Bloomberg, "El flujo de Twitter proporciona conjuntos de datos alternativos muy grandes y saludables, particularmente para los investigadores que buscan alpha", el servicio de Bloomberg’s noticias recién lanzado toma en las noticias relacionadas con finance-related twitter feed y escaneó valiosos tweets de noticias para perspectivas de inversión. Énfasis adicional
Por el valor de los datos de las redes sociales, se descubrió que "los movimientos de Dow Jones pueden predecirse mediante estados de ánimo colectivos obtenidos directamente de los feeds a gran escala de Twitter, con una precisión de alrededor del 87,6 por ciento.
EY lanzó una encuesta en noviembre de 2017 y descubrió que los datos de las redes sociales estaban siendo utilizados o utilizados por más de una cuarta parte de los fondos de cobertura en sus estrategias de inversión dentro de 6-12 meses. Los proveedores obtienen personalmente los datos de fuentes como Facebook, YouTube y Twitter, o, a veces, a través de herramienta de web scraping como Octoparse.
Cuando los sitios web populares a los que se puede acceder fácilmente, como Amazon y Twitter, activamente be scrapped. Los fondos de cobertura se impulsarán a buscar regularmente fuentes de datos nuevas y especiales para sacar a la luz, señales comerciales precisas para permanecer en la cima de su juego. Por esta razón, no habrá fin a cuán profundamente pueden profundizar las empresas. La dark web puede incluso estar incluida.
https://preview.redd.it/61ywx5jxqrc51.png?width=620&format=png&auto=webp&s=57b2e1792667b1b804101cfb18f574117f8fa282
Los datos scraped pueden incluso incluir datos de clientes o individuos, especialmente los que pueden extraerse de diferentes fuentes, como antecedentes penales, registros de vuelo, directorios telefónicos y registros electorales. Con base en los argumentos que giran en torno a los problemas con los datos personales que ganaron popularidad este año, particularmente con el surgimiento del escándalo de Cambridge Analytica en Facebook, los scrappers pronto encontrarán una fuerte oposición de los promotores de leyes de privacidad de datos.
Tammer Kamel, CEO y Fundador de Quandl, ha declarado recientemente que existe una "healthy paranoia" entre las diferentes organizaciones para eliminar la información personal antes de las ventas de los conjuntos de datos alternativos de su empresa, y ese paso en particular puede acarrear graves consecuencias. En cualquier caso, la protección reglamentaria adecuada es primordial en este nivel. Esto implica que se puede recopilar demasiada información con respecto a un individuo, ya que todavía no tenemos un conjunto de normas de gobierno.
El año pasado, el Informe de Ley de Hedge Fund declaró que "a pesar de que el comercio electrónico ha madurado relativamente, la recolección automática de datos aún no es legal. En la medida en que han surgido muchos casos para analizar disputas de scraping. Debido con los estatutos federales y estatales diferentes, no existe una ley particular, y las decisiones anteriores se consideran específicas de los hechos ”. Siendo realistas, algunos casos legales complicados apoyan a los scrapers ...
Además, la federal Computer Fraud y Abuse Act, representada como CFAA de los Estados Unidos, ha sido conocida como una ley que impone responsabilidad a aquellos que deliberadamente obtienen acceso a computadoras no autorizadas o van más allá de su acceso autorizado" Debido a esto, muchas empresas especifican la prevención de terceros que intentan recopilar datos. En 2017, hubo este caso popular - HiQ Labs vs LinkedIn, donde LinkedIn hizo uso de CFAA es que HiQ destruye su vida útil mediante usando robots en los perfiles de usuarios públicos para obtener datos. Finalmente, LinkedIn recibió la orden legal de eliminar la tecnología que impedía que HiQ Labs realizara la operación de raspado, porque no requiere autorización de acceso público para acceder a la página de perfil.
También debe mencionarse que el web scraping es un arma de doble filo y no siempre se utiliza para el bien mayor. Los ciberdelincuentes pueden arruinar la reputación de una empresa si los delincuentes la utilizan, por ejemplo, para robar contenido con derechos de autor. Dado que no se puede determinar la intención de las personas detrás del programa deployed bots, puede ser muy difícil determinar la intención maliciosa de un programa.
Además, si los web scraping bots se vuelven más sofisticados, podrán abrirse paso aún más en aplicaciones web y API. Una instancia es el uso de IP proxy - esto incluso hará que el ataque malicioso sea más exitoso.
https://preview.redd.it/mrbyjr1zqrc51.png?width=620&format=png&auto=webp&s=68626fe5588a1d287147bc722b632476cde04615
Estructuras vitales de un ataque
Incluso con la forma en que se manifiestan estos problemas, Hedge funds probablemente no dejarán de adoptar el web scraping, en particular, si hay más oportunidades como acceder a oportunidades de inversión nuevas y más rentables En realidad, según una estadística, alrededor del 46 por ciento del tráfico a través de Internet es el resultado de web-scraping bots. Cuando se scrapped la web para mencionar a una determinada empresa, se puede proporcionar a los fondos de cobertura una idea muy clara de la percepción de su cliente y su perspectiva.
Con más pruebas de la importancia del web scraping para todo el uso en la industria de los fondos de cobertura, legítimamente o no, parece que nuestro mundo en línea está totalmente preparado para someterse a más análisis de forma más regular y de cerca que nunca.
submitted by melisaxinyue to hedgefund [link] [comments]


2020.07.22 11:57 melisaxinyue Las 20 Mejores Herramientas de Web Scraping para Extracción de Datos

Web Scraping (también conocido como extracción de datos de la web, web crawling) se ha aplicado ampliamente en muchos campos hoy en día. Antes de que una herramienta de web scraping llegue al público, es la palabra mágica para personas normales sin habilidades de programación. Su alto umbral sigue bloqueando a las personas fuera de Big Data. Una herramienta de web scraping es la tecnología de rastreo automatizada y cierra la brecha entre Big Data y cada persona.
¿Cuáles son los beneficios de usar una herramienta de web spider?
Aquí está el trato
Enumeré 20 MEJORES web scrapers para usted como referencia. ¡Bienvenido a aprovecharlo al máximo!
1. Octoparse
Octoparse es un free online spider para extraer casi todo tipo de datos que necesita en los sitios web. Puede usar Octoparse para extraer un sitio web con sus amplias funcionalidades y capacidades. Tiene dos tipos de modo de operación: Modo Asistente y Modo Avanzado, para que los que no son programadores puedan aprender rápidamente. La interfaz fácil de apuntar y hacer clic puede guiarlo a través de todo el proceso de extracción. Como resultado, puede extraer fácilmente el contenido del sitio web y guardarlo en formatos estructurados como EXCEL, TXT, HTML o sus bases de datos en un corto período de tiempo.
Además, proporciona una Programada Cloud Extracción que le permite extraer los datos dinámicos en tiempo real y mantener un registro de seguimiento de las actualizaciones del sitio web.
También puede extraer sitios web complejos con estructuras difíciles mediante el uso de su configuración incorporada de Regex y XPath para localizar elementos con precisión. Ya no tiene que preocuparse por el bloqueo de IP. Octoparse ofrece Servidores Proxy IP que automatizarán las IP y se irán sin ser detectados por sitios web agresivos.
Para concluir, Octoparse debería poder satisfacer las necesidades de rastreo de los usuarios, tanto básicas como avanzadas, sin ninguna habilidad de codificación.
2. Cyotek WebCopy
WebCopy es un website crawler gratuito que le permite copiar sitios parciales o completos localmente web en su disco duro para referencia sin conexión.
Puede cambiar su configuración para decirle al bot cómo desea rastrear. Además de eso, también puede configurar alias de dominio, cadenas de agente de usuario, documentos predeterminados y más.
Sin embargo, WebCopy no incluye un DOM virtual ni ninguna forma de análisis de JavaScript. Si un sitio web hace un uso intensivo de JavaScript para operar, es más probable que WebCopy no pueda hacer una copia verdadera. Es probable que no maneje correctamente los diseños dinámicos del sitio web debido al uso intensivo de JavaScript
3. HTTrack
Como programa gratuito de rastreo de sitios web, HTTrack proporciona funciones muy adecuadas para descargar un sitio web completo a su PC. Tiene versiones disponibles para Windows, Linux, Sun Solaris y otros sistemas Unix, que cubren a la mayoría de los usuarios. Es interesante que HTTrack pueda reflejar un sitio, o más de un sitio juntos (con enlaces compartidos). Puede decidir la cantidad de conexiones que se abrirán simultáneamente mientras descarga las páginas web en "establecer opciones". Puede obtener las fotos, los archivos, el código HTML de su sitio web duplicado y reanudar las descargas interrumpidas.
Además, el soporte de proxy está disponible dentro de HTTrack para maximizar la velocidad.
HTTrack funciona como un programa de línea de comandos, o para uso privado (captura) o profesional (espejo web en línea). Dicho esto, HTTrack debería ser preferido por personas con habilidades avanzadas de programación.
4. Getleft
Getleft es un capturador de sitios web gratuito y fácil de usar. Le permite descargar un sitio web completo o cualquier página web individual. Después de iniciar Getleft, puede ingresar una URL y elegir los archivos que desea descargar antes de que comience. Mientras avanza, cambia todos los enlaces para la navegación local. Además, ofrece soporte multilingüe. ¡Ahora Getleft admite 14 idiomas! Sin embargo, solo proporciona compatibilidad limitada con Ftp, descargará los archivos pero no de forma recursiva.
En general, Getleft debería poder satisfacer las necesidades básicas de scraping de los usuarios sin requerir habilidades más sofisticadas.
5. Scraper
Scraper es una extensión de Chrome con funciones de extracción de datos limitadas, pero es útil para realizar investigaciones en línea. También permite exportar los datos a las hojas de cálculo de Google. Puede copiar fácilmente los datos al portapapeles o almacenarlos en las hojas de cálculo con OAuth. Scraper puede generar XPaths automáticamente para definir URL para scraping. No ofrece servicios de scraping todo incluido, pero puede satisfacer las necesidades de extracción de datos de la mayoría de las personas.
6. OutWit Hub
OutWit Hub es un complemento de Firefox con docenas de funciones de extracción de datos para simplificar sus búsquedas en la web. Esta herramienta de web scraping puede navegar por las páginas y almacenar la información extraída en un formato adecuado.
OutWit Hub ofrece una interfaz única para extraer pequeñas o grandes cantidades de datos por necesidad. OutWit Hub le permite eliminar cualquier página web del navegador. Incluso puede crear agentes automáticos para extraer datos.
Es una de las herramientas de web scraping más simples, de uso gratuito y le ofrece la comodidad de extraer datos web sin escribir código.
7. ParseHub
Parsehub es un excelente web scraper que admite la recopilación de datos de sitios web que utilizan tecnología AJAX, JavaScript, cookies, etc. Su tecnología de aprendizaje automático puede leer, analizar y luego transformar documentos web en datos relevantes.
La aplicación de escritorio de Parsehub es compatible con sistemas como Windows, Mac OS X y Linux. Incluso puede usar la aplicación web que está incorporado en el navegador.
Como programa gratuito, no puede configurar más de cinco proyectos públicos en Parsehub. Los planes de suscripción pagados le permiten crear al menos 20 proyectos privados para scrape sitios web.
8. Visual Scraper
VisualScraper es otro gran web scraper gratuito y sin codificación con una interfaz simple de apuntar y hacer clic. Puede obtener datos en tiempo real de varias páginas web y exportar los datos extraídos como archivos CSV, XML, JSON o SQL. Además de SaaS, VisualScraper ofrece un servicio de web scraping como servicios de entrega de datos y creación de servicios de extracción de software.
Visual Scraper permite a los usuarios programar un proyecto para que se ejecute a una hora específica o repetir la secuencia cada minuto, día, semana, mes o año. Los usuarios pueden usarlo para extraer noticias, foros con frecuencia.
9. Scrapinghub
Scrapinghub es una Herramienta de Extracción de Datos basada Cloud que ayuda a miles de desarrolladores a obtener datos valiosos. Su herramienta de scraping visual de código abierto permite a los usuarios raspar sitios web sin ningún conocimiento de programación.
Scrapinghub utiliza Crawlera, un rotador de proxy inteligente que admite eludir las contramedidas de robots para rastrear fácilmente sitios enormes o protegidos por robot. Permite a los usuarios rastrear desde múltiples direcciones IP y ubicaciones sin la molestia de la administración de proxy a través de una simple API HTTP.
Scrapinghub convierte toda la página web en contenido organizado. Su equipo de expertos está disponible para obtener ayuda en caso de que su generador de rastreo no pueda cumplir con sus requisitos

10. Dexi.io
As a browser-based web crawler, Dexi.io allows you to scrape data based on your browser from any website and provide three types of robots for you to create a scraping task - Extractor, Crawler, and Pipes. The freeware provides anonymous web proxy servers for your web scraping and your extracted data will be hosted on Dexi.io’s servers for two weeks before the data is archived, or you can directly export the extracted data to JSON or CSV files. It offers paid services to meet your needs for getting real-time data.
Como web scraping basado en navegador, Dexi.io le permite scrape datos basados en su navegador desde cualquier sitio web y proporcionar tres tipos de robots para que pueda crear una tarea de scraping: extractor, rastreador y tuberías. El software gratuito proporciona servidores proxy web anónimos para su web scraping y sus datos extraídos se alojarán en los servidores de Dexi.io durante dos semanas antes de que se archiven los datos, o puede exportar directamente los datos extraídos a archivos JSON o CSV. Ofrece servicios pagos para satisfacer sus necesidades de obtener datos en tiempo real.
11. Webhose.io
Webhose.io permite a los usuarios obtener recursos en línea en un formato ordenado de todo el mundo y obtener datos en tiempo real de ellos. Este web crawler le permite rastrear datos y extraer palabras clave en muchos idiomas diferentes utilizando múltiples filtros que cubren una amplia gama de fuentes
Y puede guardar los datos raspados en formatos XML, JSON y RSS. Y los usuarios pueden acceder a los datos del historial desde su Archivo. Además, webhose.io admite como máximo 80 idiomas con sus resultados de crawling de datos. Y los usuarios pueden indexar y buscar fácilmente los datos estructurados rastreados por Webhose.io.
En general, Webhose.io podría satisfacer los requisitos de scraping elemental de los usuarios.
12. Import. io
Los usuarios pueden formar sus propios conjuntos de datos simplemente importando los datos de una página web en particular y exportando los datos a CSV.
Puede scrape fácilmente miles de páginas web en minutos sin escribir una sola línea de código y crear más de 1000 API en función de sus requisitos. Las API públicas han proporcionado capacidades potentes y flexibles, controle mediante programación Import.io para acceder automáticamente a los datos, Import.io ha facilitado el rastreo integrando datos web en su propia aplicación o sitio web con solo unos pocos clics.
Para satisfacer mejor los requisitos de rastreo de los usuarios, también ofrece una aplicación gratuita para Windows, Mac OS X y Linux para construir extractores y rastreadores de datos, descargar datos y sincronizarlos con la cuenta en línea. Además, los usuarios pueden programar tareas de rastreo semanalmente, diariamente o por hora.
13. 80legs
80legs es una poderosa herramienta de web crawling que se puede configurar según los requisitos personalizados. Admite la obtención de grandes cantidades de datos junto con la opción de descargar los datos extraídos al instante. 80legs proporciona un rastreo web de alto rendimiento que funciona rápidamente y obtiene los datos requeridos en solo segundos.
14. Spinn3r
Spinn3r le permite obtener datos completos de blogs, noticias y sitios de redes sociales y RSS y ATOM. Spinn3r se distribuye con un firehouse API que gestiona el 95% del trabajo de indexación. Ofrece protección avanzada contra spam, que elimina spam y los usos inapropiados del lenguaje, mejorando así la seguridad de los datos.
Spinn3r indexa contenido similar a Google y guarda los datos extraídos en archivos JSON. El web scraper escanea constantemente la web y encuentra actualizaciones de múltiples fuentes para obtener publicaciones en tiempo real. Su consola de administración le permite controlar los scraping y la búsqueda de texto completo permite realizar consultas complejas sobre datos sin procesar.
15. Content Grabber
Content Grabber es un software de web crawler dirigido a empresas. Le permite crear agentes de rastreo web independientes. Puede extraer contenido de casi cualquier sitio web y guardarlo como datos estructurados en el formato que elija, incluidos los informes de Excel, XML, CSV y la mayoría de las bases de datos.
Es más adecuado para personas con habilidades avanzadas de programación, ya queproporciona muchas potentes de edición de guiones y depuración de interfaz para aquellos que lo necesitan. Los usuarios pueden usar C # o VB.NET para depurar o escribir scripts para controlar la programación del proceso de scraping. Por ejemplo, Content Grabber puede integrarse con Visual Studio 2013 para la edición de secuencias de comandos, la depuración y la prueba de unidad más potentes para un rastreador personalizado avanzado y discreto basado en las necesidades particulares de los usuarios.
16. Helium Scraper
Helium Scraper es un software visual de datos web scraping que funciona bastante bien cuando la asociación entre elementos es pequeña. No es codificación, no es configuración. Y los usuarios pueden obtener acceso a plantillas en línea basadas en diversas necesidades de scraping.
Básicamente, podría satisfacer las necesidades de scraping de los usuarios dentro de un nivel elemental.
17. UiPath
UiPath es un software robótico de automatización de procesos para capturar automáticamente una web. Puede capturar automáticamente datos web y de escritorio de la mayoría de las aplicaciones de terceros. Si lo ejecuta en Windows, puede instalar el software de automatización de proceso. Uipath puede extraer tablas y datos basados en patrones en múltiples páginas web.
Uipath proporciona herramientas incorporados para un mayor web scraping. Este método es muy efectivo cuando se trata de interfaces de usuario complejas. Screen Scraping Tool puede manejar elementos de texto individuales, grupos de texto y bloques de texto, como la extracción de datos en formato de tabla.
Además, no se necesita programación para crear agentes web inteligentes, pero el .NET hacker dentro de usted tendrá un control completo sobre los datos.
18. Scrape.it
Scrape.it es un software node.js de web scraping . Es una herramienta de extracción de datos web basada en la nube. Está diseñado para aquellos con habilidades avanzadas de programación, ya que ofrece paquetes públicos y privados para descubrir, reutilizar, actualizar y compartir código con millones de desarrolladores en todo el mundo. Su potente integración lo ayudará a crear un rastreador personalizado según sus necesidades.
19. WebHarvy
WebHarvy es un software de web scraping de apuntar y hacer clic. Está diseñado para no programadores. WebHarvy puede scrape automáticamente Texto, Imágenes, URL y Correos Electrónicos de sitios web, y guardar el contenido raspado en varios formatos. También proporciona un programador incorporado y soporte proxy que permite el rastreo anónimo y evita que el software de web crawler sea bloqueado por servidores web, tiene la opción de acceder a sitios web objetivo a través de servidores proxy o VPN.
Los usuarios pueden guardar los datos extraídos de las páginas web en una variedad de formatos. La versión actual de WebHarvy Web Scraper le permite exportar los datos raspados como un archivo XML, CSV, JSON o TSV. Los usuarios también pueden exportar los datos raspados a una base de datos SQL.
20. Connotate
Connotate es un web scraper automatizado diseñado para la extracción de contenido web a escala empresarial que necesita una solución a escala empresarial. Los usuarios comerciales pueden crear fácilmente agentes de extracción en tan solo unos minutos, sin ninguna programación. Los usuarios pueden crear fácilmente agentes de extracción simplemente apuntando y haciendo clic.
submitted by melisaxinyue to webscraping [link] [comments]


2020.06.09 10:46 melisaxinyue Web Scraping: Cómo Comenzó y Qué Sucederá en El Futuro

¿Qué es el web scraping?
El web scraping, también conocido como web harvesting y extracción de datos web, se refiere básicamente a la recopilación de datos de sitios web a través del Hypertext Transfer Protocol (HTTP) o mediante navegadores web.
Tabla de contenidos
¿Cómo funciona el web scraping?
En general, el web scraping implica tres pasos:
https://preview.redd.it/mo1ex5nfku351.png?width=666&format=png&auto=webp&s=508ca7d3f262f17509bc8f768e3201ca5653baa6
¿Cómo comenzó todo?
Aunque para muchas personas, suena como una técnica tan fresca como conceptos como "Big Data" o "machine learning", la historia del web scraping es en realidad mucho más larga. Se remonta a la época en que nació la World Wide Web, o coloquialmente "Internet"
Al principio, Internet era incluso inescrutable. Antes de que se desarrollaran los motores de búsqueda, Internet era solo una colección de sitios de File Transfer Protocol (FTP) en los que los usuarios navegaban para encontrar archivos compartidos específicos. Para encontrar y organizar los datos distribuidos disponibles en Internet, las personas crearon un programa automatizado específico, conocido hoy como el web crawlebot, para buscar todas las páginas en Internet y luego copiar todo el contenido en las bases de datos para su indexación.
Luego, Internet crece y se convierte en el hogar de millones de páginas web que contienen una gran cantidad de datos en múltiples formas, incluidos textos, imágenes, videos y audios. Se convierte en una fuente de datos abierta.
A medida que la fuente de datos se hizo increíblemente rica y fácil de buscar, la gente comienzan a descubrir que la información requerida se puede encontrar fácilmente. Esta información generalmente se encuentra dispersa en muchos sitios web, pero el problema es que cuando desean obtener datos de Internet, no todos los sitios web ofrecen la opción de descargar datos. Copiar y pegar es muy engorroso e ineficiente.
Y ahí es donde entró el web scraping. El web scraping en realidad está impulsado por web bots/crawlers, y sus funciones son las mismas que las utilizadas en los motores de búsqueda. Es decir, buscar y copiar. La única diferencia podría ser la escala. El web scraping se centra en extraer solo datos específicos de ciertos sitios web, mientras que los motores de búsqueda a menudo obtienen la mayoría de los sitios web en Internet.

- ¿Cómo se hace el web scraping?

Técnicamente, la World Wide Web es diferente de Internet. El primero se refiere al espacio de información, mientras que el segundo es la network compuesta por computadoras.
Gracias a Tim Berners-Lee, el inventor de WWW, trajo las siguientes 3 cosas que han sido parte de nuestra vida diaria:
También inventado por Tim Berners-Lee, se llamaba WorldWideWeb (sin espacios), llamado así por el proyecto WWW. Un año después de la aparición de la web, las personas tenían una forma de verla e interactuar con ella.
La web siguió creciendo a una velocidad bastante moderada. Para 1994, el número de servidores HTTP era superior a 200.
Aunque funcionó de la misma manera que lo hacen los robots web hoy en día, solo tenía la intención de medir el tamaño de la web.
Como no había tantos sitios web disponibles en la web, los motores de búsqueda en ese momento solían depender de los administradores de sus sitios web humanos para recopilar y editar los enlaces en un formato particular.
JumpStation trajo un nuevo salto. Es el primer motor de búsqueda WWW que se basa en un robot web.
Desde entonces, la gente comenzó a usar estos web crawlers programáticos para recolectar y organizar Internet. Desde Infoseek, Altavista y Excite, hasta Bing y Google hoy, el núcleo de un robot de motor de búsqueda sigue siendo el mismo:
Como las páginas web están diseñadas para usuarios humanos, y no para la facilidad de uso automatizado, incluso con el desarrollo del bot web, todavía fue difícil para los ingenieros informáticos y los científicos hacer scraping web, y mucho menos personas normales. Por lo tanto, la gente se ha dedicado a hacer que el web scraping esté más disponible.
API significa Interfaz de Programación de Aplicaciones. Es una interfaz que facilita mucho el desarrollo de un programa al proporcionar los bloques de construcción.
En 2000, Salesforce y eBay lanzaron su propia API, con la cual los programadores pudieron acceder y descargar algunos de los datos disponibles al público.
Con comandos simples, Beautiful Soup tiene sentido de la estructura del sitio y ayuda a analizar el contenido desde el contenedor HTML. Se considera la biblioteca más sofisticada y avanzada para el raspado web, y también uno de los enfoques más comunes y populares en la actualidad.
En 2006, Stefan Andresen y su Kapow Software (adquirido por Kofax en 2013) lanzaron la Web Integration Platform version 6.0, algo que ahora se entiende como software visual de web scraping, que permite a los usuarios simplemente resaltar el contenido de una página web y estructurar esos datos en un excel file utilizable o database
Finalmente, hay una manera para que los masivos no programadores hagan web scraping por su cuenta.
Desde entonces, el web scraping está comenzando a llegar a la corriente principal. Ahora, para los no programadores, pueden encontrar fácilmente más de 80 programas de extracción de datos listos para usar que proporcionan procesos visuales.
¿Cómo será el web scraping?
Las crecientes demandas de datos web por parte de las empresas en toda la industria prosperan en el mercado de web scraping, y eso trae nuevos empleos y oportunidades comerciales.
Es una época que es más fácil que cualquier otra que hayamos tenido en la historia. Cualquier persona, empresa u organización puede obtener los datos que desee, siempre que estén disponibles en la web. Gracias al web crawlebot, API, bibliotecas estándar y varios softwares listos para usar, una vez que alguien tiene la voluntad de obtener datos, hay una manera para ellos. O también pueden recurrir a profesionales accesibles y asequibles.
haya Internet, habrá web scraping.
Una forma de evitar las posibles consecuencias legales del web scraping es consultar a los proveedores profesionales de servicios de web scraping. Octoparse se erige como la mejor compañía de web scraping que ofrece scraping servicios y una herramienta de extracción de datos web. Tanto los empresarios individuales como las grandes empresas cosecharán los beneficios de su avanzada tecnología de scraping.
submitted by melisaxinyue to webscraping [link] [comments]


2020.05.01 10:57 kong-dao COVID-19: GDPR Violado

La pandemia abrazó al mundo en un aspecto sanitario y tecnológico, las distopias de Aldous Huxley o George Orwell (entre otros) aparecieron para quedarse, la realidad siempre supera la ficción, oculta desde la sombra miraba todo, lista para arrimarse cuando quisiera.
Con la idea de mezclar ambas partes, ciencia y tecnología, las empresas no tardaron en hacer una sinfonía orquestada que aturde a usuarios con el bombarde de información por medio de la televisión, radio, prensa o internet, que además utiliza como herramientas de control sin su conscentimiento, la excusa: COVID-19. No ahondaré en países donde la vigilancia rompe con todas las "libertades civiles" como China, Rusia, Corea del Norte, Corea del Sur, Estados Unidos, Australia, Canada, Nueva Zelanda, Japón, Israel, Iran y más, pero sí donde los políticos se regocijan y vanaglorian de las leyes aprobadas: Europa.
La "fiebre tecnológica" saltó al mundo cuando la OMS declaró la pandemia, miles de empresas de hardware y software especializadas en mediciones térmicas empezaron a frotarse las manos para "predecir" los síntimas del virus: fiebre, fatiga, pérdida del apetito y el olfato, tos, dolor muscular (efecto secundario de la fiebre), son los más "comunes" Resulta dificil atribuir a un virus síntomas tan generales, pero no tanto gracias a la tecnología que se instalará en aeropuertos, aviones, edificios públicos y privados (compañías) y no es casualidad que el "mercado térmico" haya saltado como nunca antes con un valor estimado de €65 Billones según Telegraph
Recientemente Google y Apple se asociaron para "ayudar" con su aporte tecnológico, crearon una API (Programa de Aplicación con Interfaz - Application Programming Interface) hoy conocida como "app", que estará en los sistemas operativos Android e iOS a partir de las proximas actualizaciones de software. La aplicación utilizará el sistema de Bluethooth para identificar, gracias al GPS, cerca de quien estuvo, cuándo y dónde, hará "tests" de COVID-19 que si da positivo se enviará a las autoridades y luego se enviarán una alerta de forma anónima a la persona que estuvo en contacto con el "infectado". Ante esta iniciativa del sector privado, los gobiernos de Francia y Alemania levantaron la mano para pedir acceso a los códigos, mientras ellos desarrollan sus propias APIs con la ayuda de los institutos Inria (Francia) y Fraunhofer (Alemania) ambos miembros del proyecto PEPP-PT (Pan-European Privacy-Preserving Proximity Tracing) los que según la documentación oficial subida a Github (compañía adquirida en 2018 por Microsoft en U$7.5 Billones) no muestra el código fuente, solamente se ven unos cuantos pdf además de las 43 incidencias entre las que se relacionan los problemas de privacidad y seguridad que ofrece la "app", cuyo último documento fue subido por el primer instituto fechada el 30 de Abril de 2020 diciendo respetar las normas mínimas del GDPR (¿Qué dice el GDPR? Lo aclaro debajo) La pregunta sería ¿cómo la API puede descartar los falsos-positivos? Aún no está claro. Lo que si está claro es que el mismo documento oficial aclara que el impacto será la Vigilancia Masiva, los informes son precarios con respecto a la información técnica sobre la tegnología que utilizarán y si la app será centralizada o descentralizada, es decir de código abierto (open-source) o código cerrado (al que acceden solamente los "dueños") que de momento sería el último caso. Este plan o proyecto "pan-europeo",comenta Thomson Reuters, fue apoyado por las más grandes empresas de telecomunicaciones de Europa entre las que se encuentran: Vodafone, Deutsche Telekom, Orange, Telefonica, Telecom Italia , Telenor, Telia y Telekom donde la primer ministra alemana Angela Merkel apoyó de forma rotunda tras bloquear las acciones de Trump para comprar vacunas a CureVac (farmaceutica alemana subvencionada por la Fundación Bill & Melinda Gates) Desde el mes de Abril los países que comenzar con el plan fueron: España, Italia, Noruega, Belgica, Inglaterra, Portugal y Grecia.
La página oficial de la empresa española Telefónica muestra de forma orgullosa su historia colaborativa con Facebook, además de asociarse con Google y el gobierno español para desarrollar una "app" local y combatir el COVID, empresas que la Comunidad Europea estaba bloqueando por considerarlas "comeptencia".
Vodafone tiene actualmente trabajando a investigadores pagados por la Fundación Bill & Melinda Gates para luchar contra la pandemia, una con la que tienen relación hace más de 10 años según la web oficial de la institución. (Esta fundación ya fue expuesta en otro articulo sobre su intención de reducir la población mundial y cómo se relaciona con la infame OMS)
GDPR
En 2016 la Comunidad Europea aprobó la Regulación de Protección General de Datos (siglas en inglés: GDPR) aplicada (tardíamente) en 2018 para trabaja a la par es el Comité Europeo de Protección de Datos (EDPB por sus siglas en inglés) Esta última, dirigada por la abogada Andrea Jelinek, hizo publico un breve comunicado de 3 páginas en la web oficial el día 19 de Marzo de 2020, en la 1er pág. cita:
Emergency is a legal condition which may legitimise restrictions of freedoms provided these restrictions are proportionate and limited to the emergency period. (La emergencia es una condición legal que puede legitimar las restricciones de las libertades\, siempre que estas restricciones sean proporcionadas y limitadas al período de emergencia)*
*[La palabra legitimar deriva de legítimo, es decir, legal, lícito o permitido, lease "es permitido restringir las libertades"] Condición anti-ćonstitucional de los "derechos humanos" que rechaza de pleno el Articuloº13 sobre la libre circulación.
El 20 de Abril, una publicación de Bloomberg declara:
We know that cellphone contact tracing is effective, though, in part through documents made public by the former U.S. intelligence contractor Edward Snowden describing how the National Security Agency gained access to global location data by tapping into mobile network cables. Intelligence agencies used this data to uncover hidden associations of known targets based on intersecting movements. (Sin embargo, sabemos que el rastreo de contactos de teléfonos celulares es efectivo, en parte a través de documentos hechos públicos por el ex contratista de inteligencia de los Estados Unidos, Edward Snowden, que describen cómo la Agencia de Seguridad Nacional obtuvo acceso a datos de ubicación global al conectarse a cables de redes móviles. Las agencias de inteligencia utilizaron estos datos para descubrir asociaciones ocultas de objetivos conocidos basados en movimientos de intersección.)
Recientemente el navegador Brave que apunta a la privacidad de los usuarios (pero no más que el open-source Firefox) denunció a la comunidad Europea por violar las políticas de GDPR con respecto a los usuarios, alegando que los gobiernos están fallando en respetar las políticas que ellos mismos crearon para proteger a los usuarios.
El periódico inglés Daily Mailpublicó un articulo titulado: "Cuando las pandemias golpean, el libro de reglas sale volando por la ventana": Expertos advierten que el rastreo de smartphones para encontra el coronavirus puede pavimentar un gran camino a la vigilancia masiva
Otro medio que levantó la alarma fue Politico con el titular: La privacidad amenazada en Occidente por combatir el virus
Está claro que gracias a la tecnología GPS se puede hacer un seguimiento bastante preciso, se puede saber dónde vive, dónde trabaja, con quien se junta (por proximidad entre los móviles que transmiten beams o beacons) y dónde, con qué frecuencia visita x lugares, los sitios turisticos o de consumo que frecuenta, información obviamente detallada por una cronología que indica en qué hora, min y seg, si se estuvo moviendo o estuvo quieto. Un instrumento más del hoy llamado Big Data
Las más grandes tecnologías, medios de comunicación, y gobiernos están haciendo de "reguladores de información" contra las "fake news", unas falsas noticias que ellos mismos crean para generar confusión y desinformación en la sociedad actual, así es más fácil de dirigir a las masas hacia un futuro sin libertad de expresión, sin libre-pensamiento, sin democracia, es decir, sin libertad(es) y que además viola los derechos humanos, y las leyes que los mismos gobiernos crearon.
La tecnología es una poderosísima herramienta, saber usarla está en sus manos, ignorarla es dejar que otros la usen en su nombre para hacer bien o para hacer mal, algo que usted nunca sabrá.
---------------------
Anexos:
Población de Europa (2020) - Fuentes:
World Population ReviewPopulation PiramidWorld Meters
submitted by kong-dao to DeepMinds [link] [comments]


2020.02.10 09:40 melisaxinyue Los 5 Mejores Rastreadores Web (crawlers) de Redes Sociales para 2020

Los 5 Mejores Rastreadores Web (crawlers) de Redes Sociales para 2020

Los 5 mejores rastreadors de redes sociales en el mercado

1. Octoparse


https://preview.redd.it/fmkbjh6y52g41.png?width=1799&format=png&auto=webp&s=cf3f9430a9edd4ec011c5e8a109a1fc5f3cdf365
Como una de las mejores herramientas automáticas gratuitas de raspado de páginas web en el mercado, Octoparse se desarrolló para los no codificadores a fin de acomodar los complicados trabajos de scrape de páginas web.
La versión actual 7 proporciona una interfaz intuitiva de hacer clic y admite el manejo de desplazamiento infinito, autenticación de inicio de sesión, entrada de texto (para scrape resultados de búsqueda), así como la selección de menús desplegables. Los datos raspado se pueden exportar como Excel, JSON, HTML o a bases de datos. Si desea crear un raspador dinámico para exraer datos de sitios web dinámicos en tiempo real, Octoparse Cloud Extraction (plan pagado) funciona bien para obtener fuentes de datos dinámicos, ya que admite el programa de extracción tan frecuente como cada 1 minuto.
Para extraer datos de redes sociales, Octoparse ya publicó muchos tutoriales elaborados, como scraping tweets de Twitter y extraer publicaciones de Instagram. Además, Octoparse ofrece un servicio de recopilación de datos que entrega los datos directamente a su biblioteca de S3. Si tiene poco tiempo, puede ser una buena alternativa a considerar.

  1. Dexi.io
https://preview.redd.it/hee1ef8362g41.png?width=1820&format=png&auto=webp&s=ed0f5f647fc4bc101aa995c16d6d54f3b44eb878
Como una aplicación basada en la web, Dexi.io es otra herramienta intuitiva de automatización de extracción para fines comerciales con un precio inicial de $ 119/mes. Dexi.io admite la creación de tres tipos de robots: extractor, crawler, Pipes.
Dexi.io requiere algunas habilidades de programación para dominar, Pero puede integrar servicios de terceros para resolver el problema del captcha, almacenamiento en la nube, análisis de texto (integración del servicio MonkeyLearn) e incluso con AWS, Google Drive, Google Sheets ...
El Plugin (plan pagado) también es una característica revolucionaria de Dexi.io y la cantidad de Plugin sigue creciendo. A través de Plugin, puede desbloquear más funciones disponibles en Extractor y Pipes.

3. OutWit Hub

https://preview.redd.it/iskwkyn462g41.png?width=1868&format=png&auto=webp&s=674f5ec8d490e4e6a0942ee205040599553f88ac
A diferencia de Octoparse y Dexi.io, Outwit Hub ofrece una interfaz gráfica de usuario simplista, así como funciones sofisticadas de raspado y reconocimiento de estructura de datos. Outwit Hub comenzó como un plugin de Firefox y más tarde se convirtió en una aplicación descargable.
Sin necesidad de conocimientos previos de programación, OutWit Hub puede extraer y exportar enlaces, direcciones de correo electrónico, noticias RSS y tablas de datos a bases de datos Excel, CSV, HTML o SQL.
Outwit Hub tiene características sobresalientes de "Fast Scrape", que borra rápidamente los datos de una lista de URL que ingresas. Sin embargo, para los principiantes,es posible que deba leer algunos tutoriales básicos y documentación debido a la falta de aplicaciones de hace-clic-interface.

4. Scrapinghub

https://preview.redd.it/wddx31v562g41.png?width=1678&format=png&auto=webp&s=e56d43b3d172a0d6a2118ab13addd938c9a8e873
Scrapinghub es una plataforma de web scraping basada en la nube que le permite escalar sus rastreadores y ofrece un descargador inteligente para evitar contramedidas de bot, servicios de web scraping llave en mano y conjuntos de datos listos para usar.
La aplicación consta de 4 excelentes herramientas: Scrapy Cloud para implementar y ejecutar rastreadores web basados en Python; Portia es un software de código abierto para extraer datos sin codificación; Splash también es una herramienta de representación de JavaScript de código abierto para extraer datos de páginas web que usan JavaScript; Crawlera es una herramienta para evitar ser bloqueado por sitios web, por rastreadores desde múltiples ubicaciones e IP.
En lugar de proporcionar una suite completa, Scrapehub es una plataforma de web scraping bastante compleja y poderosa en el mercado, cada herramienta proporcionada por Scrapehub cuesta dinero por separado.

5. Parsehub

https://preview.redd.it/3o1g0s9762g41.png?width=1920&format=png&auto=webp&s=9c7502d6e8c485a58ef1a5987d86fde4c7d2e916
Parsehub es otro scraper de escritorio sin codificación en el mercado, compatible con Windows, Mac OS X y Linux. Ofrece una interfaz gráfica para seleccionar y extraer los datos de las páginas JavaScript y AJAX. Los datos se pueden extraer de comentarios anidados, mapas, imágenes, calendarios e incluso ventanas emergentes.
Además, Parsehub también tiene una extensión basada en navegador para iniciar su tarea de raspado instantáneamente. Los datos se pueden exportar como Excel, JSON o mediante API.
Lo controvertido de Parsehub tiene que ver con su precio. La versión paga de Parsehub comienza en $149 por mes, que es más alta que la mayoría de los productos de raspado en el mercado, es decir, el plan estándar de Octoparse solo cuesta $89 por mes por páginas ilimitadas por rastreo. Hay un plan gratuito, pero lamentablemente se limita a raspar 200 páginas y 5 trabajos de raspado.

Conclusión
Además de lo que pueden hacer las herramientas automáticas de web scraping, ahora muchos canales de redes sociales ahora ofrecen API pagas a usuarios, académicos, investigadores y organizaciones especiales como Thomson Reuters y Bloomberg en servicios de noticias, Twitter y Facebook en redes sociales.
Con el desarrollo creciente y próspero de la economía en línea, las redes sociales abren muchas oportunidades nuevas para que su negocio se destaque en su campo, al escuchar mejor a sus clientes y relacionarse con sus clientes actuales y potenciales de formas completamente nuevas.
submitted by melisaxinyue to u/melisaxinyue [link] [comments]


2019.12.11 15:56 srslyjuststop Why The TREP Was Suspended

Why The TREP Was Suspended
(Versión en español)
I've been reviewing public documents in an attempt to figure out exactly what happened on Election Day (October 20th 2019) in Bolivia to cause the stoppage of the TREP (non-binding preliminary vote count). This unexpected stoppage, followed by a late rally that expanded the MAS's lead just enough to win outright in the first round, led to accusations of electoral fraud that fueled a protest movement which eventually overthrew the government.
I think the suspension of the TREP was a result of the tension and lack of communication between Marcel Guzmán de Rojas, the director of NEOTEC, the firm which developed and administered the computer system that processed the votes, and Ethical Hacking, the Panamanian cybersecurity firm that was hired in the last few weeks by the TSE (Supreme Electoral Court, which oversees Bolivian elections) to audit the system and then monitor it on Election Day. It's important to note that some MAS-aligned members of the TSE had hoped to develop their own system instead of continuing to rely on NEOTEC, who had administered elections in Bolivia for many years, but their effort failed and NEOTEC, who had the solid support of the MAS's opposition, was rehired about five weeks before the election. The TSE reached out to Ethical Hacking about a week later on September 19th, but it wouldn't be until October 4th, just 16 days before the election, when the first meeting between NEOTEC and Ethical Hacking was held, and the compressed pre-election schedule contributed to frictions between them. During this time, Guzmán de Rojas felt burdened by the additional demands on him as a result of the presence of Ethical Hacking. The monitoring software that's so often mentioned in news reports was installed over the protests of Guzmán de Rojas, who expressed skepticism about it, fearing it could create conflicts with his own software and there wasn't enough time to test it adequately. When it was finally installed on his servers three days before the election, he only agreed because the TSE ordered it, and even then he had a contract drawn up in which he repeated his concerns, and he and Ethical Hacking's CEO Alvaro Andrade bickered over the details.
The day before Election Day, there was an event involving government officials and electoral observers in which they reinitialized the databases, performed validations of the computer program, and preserved a copy of the source code, then had a verbal agreement not to make any more changes or connect to the servers. However, shortly before midnight that same day, Guzmán de Rojas accessed one of the servers, which generated multiple security alerts. When Ethical Hacking called Guzmán de Rojas, he said that he was connected to the server but explained that in the earlier event, there wasn't enough time to reinitialize all the databases and he'd planned to finish the process later. Ethical Hacking asked him to disconnect from the server and not make any more changes, but hours later, early in the morning on Election Day, Guzmán de Rojas made two bugfixes to his code in response to errors caused by the arrival of the first tally sheets from overseas, which generated more security alerts and forced Ethical Hacking to redo its review from the day before. According to Ethical Hacking, these unauthorized changes "generated great suspicion and unease toward NEOTEC among the TSE board" and Guzmán de Rojas was forced to agree in writing to not make any more changes without the coordination and participation of the DNTIC (National IT Directorate) and Ethical Hacking. Also, throughout Election Day, Guzmán de Rojas and his staff regularly accessed the servers to check the logs despite the protests of the cybersecurity people, who preferred that it be done via their monitoring software. Reading the Ethical Hacking report, one gets the sense that Guzmán de Rojas saw them as a nuisance that could mostly be ignored as he went about his usual work. In fact, this was the first time that the TSE had hired a cybersecurity firm to monitor an election and Guzmán de Rojas must not have been used to such strict supervision. When he saw something that needed to be done, he sometimes did it without bothering with whatever protocols there might be.
The most serious problems emerged with the preparations for the scheduled 7:45PM press conference at which the board members of the TSE would announce the preliminary results. To facilitate this event, there was a planned stoppage of the publication of TREP results at 7:40PM, so that when the TSE board was giving the announcement, the published results wouldn't change every three minutes as before. However, also around this time, there was a large, unexpected increase in tally sheet verification traffic coming from the server known as bo1. This was the first of the so-called hidden servers, both of which were used to relay routine traffic to other servers that warehoused the electoral data, but it's important to note that, according to the OAS, this server had been active all day long relaying tally sheet verification traffic from the SERECI (Civil Registry Service). I don't understand why Ethical Hacking didn't send a notification about this server earlier, since it wasn't in the list provided to them that morning by Guzmán de Rojas.
When the number of HTTP requests coming from bo1 increased, an event which started at around 7:30PM, just 10 minutes after the absolute peak of tally sheet verification traffic, this activity was flagged by Ethical Hacking, who noticed that it was coming from an unapproved IP address and, according to their report, the requests were tally sheet verification traffic. They tried to call Guzmán de Rojas - who was working at the SERECI offices, where the tally sheets were being verified, instead of with Ethical Hacking at the offices of the TSE - but they couldn't reach him. They also asked the DNTIC about the server, but they didn't recognize it. After two failed attempts to contact Guzmán de Rojas, they sounded a "maximum alert" to the TSE. The exact timing of some events between 7:30PM and 8:10PM isn't clear. However, Guzmán de Rojas says that at around 8:10 PM the utilities at the SERECI offices were cut, which put a stop to tally sheet verifications. Five minutes later at 8:15 PM, he received a call from the TSE in which he was ordered to stop the TREP and to come to an urgent meeting at the TSE offices in San Jorge.
It's worth stopping for a moment to consider the explanation Guzmán de Rojas later gave of the bo1 server:
(Note: Transmission operators are certified election workers present at polling places who use an Android app developed by NEOTEC to record the numbers on each vote tally sheet and take a photo of the tally sheet, sending this data to a cloud server operated by NEOTEC so that it can then be validated by the verification operators at the SERECI.)
The bo1 server, a perimeter server (Nginx gateway), was used during the preparations for the election from September 20th 2019 onward. This server was used for the registration of transmission operators and the registration of verification operators, the training of verification operators, and during the testing of the transmission of results and the verification of tally sheets prior to the election.
The agent monitor ossec wasn't installed on this server. The server bo21 should've been used for the day of the election, an instruction which wasn't carried out.
In all his reports, he's vague about the reason for the mistake, only saying that he should've used another server but failed to do so. In their report, Ethical Hacking describe how they performed an extensive security review of this server shortly after the stoppage, reviewing all its logs and checking for any malicious software, and found nothing to contradict Guzmán de Rojas. It really does seem that it was just some test server of his that was active when it shouldn't have been. Also, he told Ethical Hacking that this server was where he stored historical data from previous elections, which would seem to support his claim about it being a test server.
What's absolutely clear is that the TSE was not in on this at all. Around 8:30PM, everyone meets at the TSE offices and, according to Ethical Hacking, an extremely tense scene ensues:
By this time, the president of the TSE and the board members, except for Dr. Costas, started to accuse Marcel Guzmán de Rojas of committing fraud. The situation became untenable. Everyone started shouting and accusing him of fraud. There was talk of calling the Attorney General, of calling the police. We had to intervene to calm the mood of the meeting.
Again, it simply does not make sense that the TSE was involved with this server. What happened clearly took them by surprise and they were extremely upset with Guzmán de Rojas. This detail is not in any report, but a friend told me that he'd spoken to an ex-minister from the MAS who suspected that Guzmán de Rojas had intentionally sabotaged the election, which seems unlikely but does help illustrate just how much the MAS distrusts him.
According to Guzmán de Rojas, the TSE presented him with these three reasons at the 8:30PM meeting to justify their stoppage of the TREP:
1: The use of an unmonitored server, bo1.
2: The unexpected increase in tally sheet verification traffic from the bo1 server.
3: The sudden change in trend between the MAS and CC.
You can tell right away from the first two reasons that the inciting event of this entire catastrophe was the maximum alert about bo1. That's why they stopped the TREP. Because they thought the computer system was being manipulated. In fact, in the Ethical Hacking report, they indicate that at the 8:30PM meeting it was again ordered that the TREP be stopped "until what happened can be verified" and it's clear this is a reference to the bo1 server. However, they were alerted about more than just that server. Ethical Hacking also notified the TSE about cyberattacks from Colombia. Here's how the board member Edgar Gonzalez described it:
Regarding the bo1 server, Gonzáles claimed that it was the audit firm Ethical Hacking that pointed out that error, for which the whole board was called to a meeting where the board member Antonio Costas wasn't present. That meeting was between 8:30PM and 9:00PM on Election Day.
González explained that Marcel Guzmán de Rojas didn't declare that server and, "second of all, at that time the system was receiving a ton of attacks. That's what the IT person from the audit firm explained (to us). Something like 70,000 attacks from Colombia," the TSE board member specified in statements to Urgente.bo.
"That's what they told us, that the server was being attacked from overseas. Mr. Guzmán de Rojas (told us) that there was another server, an IP address that he hadn't declared and he apologized," he noted.
In Ethical Hacking's report, there's a section about this supposed attack, which they describe as a possible denial of service attack. According to a 6:58 PM email in their report, the public TREP results website had received over a million HTTP requests in less than an hour from a single IP address. Using a simple whois, I found that the IP address belongs to Centro Nacional De Consultoria in Bogotá, Colombia. Based on their website, they're a firm that does market research and corporate consulting, but most importantly they are a parent company of ViaCiencia, one of the principal polling firms for the election and the only one certified by the government to perform a quick count on Election Day. Other polling firms complained bitterly about ViaCiencia, claiming that the government showed it favoritism and that its work was meant to support fraudulent electoral results. All their requests were for resources of the form https://trep.oep.org.bo/resul/resulActa/xxxxx/yy, which are JSON-formatted TREP vote counts. For example, if I wanted TREP vote counts for the presidential election (1) from tally sheet #71795, I would request:
https://trep.oep.org.bo/resul/resulActa/71795/1
(Note: The website was deactivated in January 2020.)
It's clear from this and the large number of requests being generated that they were only scraping the TREP election results website, but there's a thin line between scraping and a denial of service attack, and these folks in Bogotá crossed it. The obvious solution to a single IP address drowning you in requests is to block it, but it's not clear that this happened. Ethical Hacking had no credentials to log in to the servers - only the notifications from their monitoring software - and may have had trouble reaching the person who did have the logins: Guzmán de Rojas. According to Edgar Gonzalez, word about this supposed cyberattack reached him as part of the alert about bo1, which helped set off a panic that resulted in the suspension of the TREP.
In his October 28th report, Guzmán de Rojas admits he shouldn't have used the bo1 server for the election, but insists the traffic level was absolutely normal. Ethical Hacking disagrees, claiming it's impossible for legitimate SERECI tally sheet verification traffic to reach "30,000 HTTP requests every 30 seconds," a figure taken from this traffic graph in their report:
Warning: The times in this graph are all one hour early, which is because Ethical Hacking is based in Panama. Also, you can see that Ethical Hacking's '30,000 requests per 30s' is actually 30,000 requests *per 5 minutes* (=3,000 per 30s).
This question of what constitutes normal traffic seems like the only point where Guzmán de Rojas and Ethical Hacking are in serious conflict about the facts, and it's not clear who's right. However, I'm inclined to trust Guzmán de Rojas since it's his system and Ethical Hacking had only started working with it just two weeks earlier. (Click here for a more detailed discussion of the bo1 traffic spike.)
At the end of Guzmán de Rojas's claim that the traffic was normal, he makes this comment:
If the use of the bo1 server and an increase in traffic were considered anomalies, this should've been warned about and cleared up before 7:30PM.
And he's right, isn't he? Ethical Hacking absolutely should've flagged traffic from bo1 much earlier. I don't understand why they didn't. You can see clearly that bo1, the green line, had been active long before the spike that generated the alert. In fact, in the OAS report, they say it had been active all day long. It's possible Ethical Hacking didn't pay attention to it because, like all of the approved servers, it had an IP address in a range reserved for private networks (format: 10.x.x.x), which really ought to have given them more pause about sending a maximum alert.
The Ethical Hacking traffic graph is also useful because it can be combined with other evidence to reconstruct some of the timeline of the TREP stoppage. It appears that the number of HTTP requests coming from bo1 started to spike at around 7:30PM Bolivia time. In their report, Ethical Hacking claims to have detected the traffic increase right at 7:30PM, but they may not have actually noticed until some minutes later, since the traffic level then was about equal with the previous peak. They called Guzmán de Rojas twice without success and consulted with the DNTIC, after which they sent their maximum alert to the TSE. I believe the TSE only learned about this alert between 7:53-7:58PM. I say this because from 7:50-7:53PM there was the TSE's preliminary results press conference, which was attended by all the board members, and none appear to be alarmed or hurried. The TSE president, María Eugenia Choque, even ends the event noting that there were still many rural votes to be counted, which would seem to imply she believed the TREP would continue. The latest the TSE would've learned about this alert was 7:58PM, which corresponds to the first attempt to cut the SERECI's internet. This can be seen in unreleased electoral data which shows the SERECI's IP address changed at 7:58:12PM when they automatically switched over to a backup line. Then, at 8:06:44PM, their first IP address was restored and 15 seconds later at 8:07PM, all tally sheet verifications ceased, so the SERECI's utilities must've been cut. Then, according to Guzmán de Rojas, the TSE board (minus Costas) called him around 8:15PM and ordered him to halt the TREP.
If you'll recall, there was a third reason given to Guzmán de Rojas for the TREP suspension: a sudden change in trend between the MAS and CC. And for all the media coverage this reason has received, you would think that it was the only one. It's taken for granted that the TSE invented this "sudden change" to justify intervening to prevent an unfavorable result, but there's good reason to believe that in fact there was a sudden change in trend. In his November 4th report, Guzmán de Rojas explains that at around 7:16PM he reconfigured the public TREP results website to use a better data source which had at least twice as many tally sheets verified because data replication between the servers was slow and he wanted to ensure the public results were as up-to-date as possible for the press conference. This is exactly the sort of event that might cause a sudden change in the reported results. And sure enough, in this interview (and this one) Álvaro Andrade of Ethical Hacking says that around this same time, there was a sharp reduction in the margin between the MAS and CC, which abruptly declined from 11-12% to 7%, and that this prompted a request from the TSE to verify the data on the website. Andrade explained it away as being due to the mass verification of tally sheets from Santa Cruz, whose voters tend to oppose the MAS, but the problem with his account is that, according to the public spreadsheets, at no point did the MAS have an 11-12% lead in the presidential election. The 11-12% margin might reflect the count from the incomplete data source, which had at most half as many tally sheets verified, and when the public website started using the more complete data source, the MAS's reported margin suddenly fell below the 10% threshold. In his October 28th report, Guzmán de Rojas argued there was no change in trend, which he interpreted as a complete inversion of the positions of the two parties, but it was likely only a question of whether the MAS would win in the first round, not about who had the outright lead. At the 8:30PM meeting, he tried to clear up the TSE's concerns, but they weren't convinced and decided not to resume the TREP.
Also, in the OAS report, a shadowy figure appears around this time. An asesor (advisor) who's not on any of the employee lists but is vouched for by the TSE. They withheld his name in the OAS report, but Alvaro Andrade named him in an interview, so there's no sense in withholding it here. This asesor is one Sergio Martínez. According to his LinkedIn profile, he had recently been doing IT work at the National Institute of Statistics and had worked several other, similar government jobs prior. He began work as an IT contractor for the SERECI on October 8th, only four days after Ethical Hacking's own start. He appears in passing multiple times in the Ethical Hacking report, always in routine professional contexts: in two emails about security patches and audits on the 15th and in another from the 18th after he provided Andrade with a protocol for the reinitialization of databases. He was also present for the all-hands meetings after the TREP interruption on Election Night, where he appears to have proposed the configuration of a new perimeter server - bo20, the second of the hidden servers - that would be used for the verification of the remaining tally sheets, likely to resolve the conflict between Marcel Guzmán de Rojas and the TSE board, some of whom distrusted Marcel and had just accused him of fraud. In a report provided to the OAS, the DNTIC said that this bo20 server was configured by all of the important technical personnel: the DNTIC, NEOTEC, and Ethical Hacking (SIM SRL), a point the OAS doesn't challenge.
In his November 4th report to the TSE, Guzmán de Rojas offers this description of bo20:
On election night at the 20:00 (sic) meeting, the TSE decided to replace the bo1 server with a new server, bo20. This server was created and configured in the TSE's Amazon AWS server space. Just like the server bo1, the new server is a simple gateway, a reverse proxy using Nginx.
It's clear from statements he's made that he thought the TSE's complaints about bo1 and the excessive traffic were baseless, but there was no way of placating them except with another gateway server that was, as he explained, just like the one it was replacing.
The next day, according to NEOTEC's October 28th report, there was a meeting at 12:30PM between Guzmán de Rojas and the TSE where they all hashed out how to proceed. It was there that it was decided that the internet would be restored to the SERECI offices, the remaining TREP tally sheets would be processed, and then the publication of results would resume once this was completed. Also, a new IP address, this one belonging to the new bo20 server, was given to the SERECI by the DNTIC director for the verification of the remaining actas. Around 2:30PM, the SERECI had its internet restored and their TREP operators began to process tally sheets again. It would be another four hours, at 6:30PM, before the order was given to resume the publication of results, which resulted in a sharp discontinuity when the public website suddenly updated for the first time in nearly a day. In that time, 3831 tally sheets were verified and the MAS's margin over CC had grown from 7.87% to 10.15%, pushing it just over the critical 10% margin needed to win outright in the first round.
The rest of the story is less interesting, although the errors and bad practices are shocking for a production system in a national election. It all occurs in the Cómputo (official vote count) and it's scene after scene in which, say, there's a correction requested by an electoral official or a database error, so the DNTIC grants Marcel VPN access and he fixes the mistake in the only way he can: with a SQL command, as I'm sure he's done a million times in a million other elections. In most cases he appears to have permission from government officials, but he's not observed performing the changes. He simply does it, then documents in an email the SQL command he used, and then Ethical Hacking frets about how he's not following procedure. There's also a WhatsApp chat log at the end of the Ethical Hacking report that shows there was an informal system between Windsor Saire, the director of the DNTIC, and Marcel Guzmán de Rojas which the two tried to document via email but which didn't appear to include the in-person supervision of Marcel.
(Note: There have been many complaints about the use of direct SQL commands, which is terrible practice and even worse within the context of an election, but according to the contract Guzmán de Rojas had drawn up, the database (MySQL) history files on the TREP application servers were being monitored in real time. After that second bug fix in the morning on Election Day, he said, 'With the bash (Linux command line) and MySQL history files, you can see what I did.' I'd expect Ethical Hacking to have monitored the same logs on the Cómputo servers, although it's unclear to me if this is the case. At any rate, if Guzmán de Rojas's emails are accurate, these SQL commands were all corrections of erroneous status values, not edits to vote totals.)
I'm confident there wasn't any data manipulation during the outage, and I think the belief that there was is due to the enormity of the technical fuck-ups and the bitterness of the political divisions in the country. Why am I so confident? Because the final results are predictable based on pre-interruption trends. Also, the OAS hasn't pointed to discrepancies between the digital and physical records, which for me would constitute strong evidence of data manipulation.
Sources:
  • Fragment from Ethical Hacking Report to TSE (10/28/2019, link)
  • NEOTEC Report to TSE #1 (10/28/2019, link)
  • NEOTEC Report to TSE #2 (11/4/2019, link)
  • Ethical Hacking Consolidated Timeline (v1.4, 11/6/2019, link)
  • OAS Preliminary Report (11/10/2019, link)
  • DNTIC Report to OAS about bo20 (11/11/2019, link)
  • OAS Final Report (12/4/2019, link)
  • Statement from Sergio Martínez (12/10/2019, link)
UPDATE #1: I wrote to Guzmán de Rojas to explain why I disagreed with the OAS report and to urge him to rebut it. To my great surprise, he responded, telling me I've 'got it right'.
UPDATE #2: Ex-TSE vice president Antonio Costas, who voted against certifying Evo Morales's candidacy and was the only board member with an IT background, points to human error as well. Some choice quotes from this October 23rd article:
"I get word that my colleagues (board members) were meeting with [Ethical Hacking] and NEOTEC. What happened is that there's a security protocol between the two firms and a part of the data was migrated in order to publish the data to another server, a movement which needed to be coordinated. [Ethical Hacking] detects this situation, and I think in this there was an excessively zealous protocol. Instead of making a big fuss, they should've sat down and looked at what happened. (...) They should've warned us," he said in an interview with Unitel.
(...)
"There's no fraud here. It was incompetence," he said.
(Other interviews: CNN, La Revista al Día, PAT, NTN, RED+. There's this, too, from 11 days before the election. Costas says that Ethical Hacking was "very demanding", but that they were helping to formalize processes that were somewhat improvisational and this would ultimately improve the TSE as an institution. I'll bet he wasn't expecting Ethical Hacking's procedural fussiness to become functional to the overthrow of the government and later aid in criminal prosecutions against him and the other board members.)
UPDATE #3: The EU also published a report with a few interesting details. They explain that the TSE's original plan with the TREP was to make a single announcement at 8:00PM to avoid confusion with the official count, which is what they had done in prior elections, but 10 days before the election, under pressure from the EU and others, they agreed to two more announcements, one at midnight and another later on the 21st. It seems that, after the decision to suspend the TREP, the TSE tried to fall back to their original plan and in effect wash their hands of the TREP, but ultimately gave in to calls to resume it. Also, in the lead-up to the election, there were many dismissals and resignations of key TSE staff, which reduced its technical expertise for the election. It's possible this made the TSE more dependent on its contractors to perform the technical roles.
UPDATE #4: I obtained new electoral data and used it to make a timeline (in Spanish) of the progression of the TREP during the period when the publication of results was halted. The exact time of the interruption was 8:07 PM, at which point the MAS had a 9.02% lead with 95.06% of tally sheets transmitted and 89.98% verified in the presidential race.
UPDATE #5: I missed this uncharacteristically informative November 18th piece from Página Siete where Guzmán de Rojas and Andrade snipe at each other. Guzmán de Rojas denies BO1 was an unknown server, insisting that it was used in testing two days before the election and Andrade should've complained then. He also claims Andrade's erroneous "30,000 HTTP requests per 30 seconds" is a deliberate lie. For his part, Andrade says all the errors were the fault of Guzmán de Rojas, who violated the security protocol over and over. One odd detail is Andrade claims to have received a notification about BO1 at 6:49 (PM). This seems about an hour too soon, so I assume he's citing it for the wrong time zone and actually means 7:49 PM, but I'm not sure.
submitted by srslyjuststop to BOLIVIA [link] [comments]


2019.07.02 15:42 sinovatehispano Sinovate:Preguntas & Respuestas por Tamer Dagli - CEO y fundador

Sinovate:Preguntas & Respuestas por Tamer Dagli - CEO y fundador

Preguntas & Respuestas
Sean bienvenidos a una nueva sección para la comunidad hispana donde hablaremos de toda publicación la cual será traducida y publicada por el embajador correspondiente para la comunidad hispana, en esta sección se colocara toda actualización, información ya que nuestra comunidad hispana necesita tener de forma mas cómoda todo en su dialecto predilecto así que hoy hablaremos de una entrevista muy particular que tuvo nuestro fundador Tamer Dagli con la cuenta de Panama_TJ los cuales llevan un buen tiempo hablando de proyectos de calidad.

1. ¿Qué problemas resolverá SINOVATE?

Además de la adopción masiva, el primer problema que SINOVATE (SIN) resuelve es la inflación que se presentan en las criptomonedas.

Este no es un problema único asociado con las monedas ordinarias de Masternode, que suelen estar cargadas de problemas de inflación derivados de la alta generación de intereses. De hecho, casi todas las criptomonedas experimentan problemas de alta inflación, independientemente de los niveles de incentivos proporcionados.
Los nodos infinitos SINOVATE son una gran evolución e incluso una revolución de Masternodes para resolver el problema de la alta inflación , utilizando el mecanismo de prueba de quemaduras (PoB nodos infinitos son gratificantes, con un gran interés para los propietarios de nodos y al mismo tiempo reducen el suministro circulante general. Cuantos más nodos en el sistema significan menos monedas en el suministro circulante.

El segundo problema que SINOVATE (SIN) resolverá es la gestión descentralizada de la información — Almacenamiento de datos incorruptible (IDS)

IDS es un sistema de redes privadas de igual a igual, que permitirá transacciones y almacenamiento entre los mineros y los propietarios de Infinity Node. Los competidores, incluidas las soluciones Sia, Storj, BitTorrent e incluso IPFS, recompensan a las personas por servir y alojar contenido en el espacio de su disco duro, lo que requiere una captación de 24/7 para las computadoras. Los discos duros de los usuarios deben permanecer abiertos y las recompensas recibidas deben justificar los costos incurridos por dejar la computadora en línea.
En IDS, la red privada de almacenamiento descentralizado se basa únicamente en la cadena de bloques SINOVATE, y solo los propietarios de los nodos reciben recompensas como compensación por la utilización de sus recursos de disco duro para ejecutar un Nodo Infinito. Los propietarios de nodos obtendrán recompensas tanto de los nodos infinitos como del almacenamiento de datos confidenciales.

IDS tendrá 5 pasos de evolución.

Paso 1. DataSend o datos enviados Los usuarios podrán enviar documentos y solo datos de SMS entre las billeteras de SIN, al igual que enviar sus monedas hasta 1.5 Megabytes (MB).
Se proporcionarán dos opciones de envío a los usuarios, conocidas como legales (256 bits) e ilegales (1024 bits o más).
Los datos que se envían en 256 bits solo serán accesibles por los gobiernos para el descifrado. Sin embargo, los datos seguirán siendo indestructibles para el uso empresarial.
Los datos que se envíen en 1024 bits o más serán imposibles de descifrar incluso para los gobiernos, si se elige esta opción.
Paso 2. Adición de datos de voz y video hasta 3MB.
Paso 3. Aumentar el espacio
Etapa 4. Aumentar el almacenamiento de datos
Paso 5. Almacenamiento descentralizado basado en blockchain ilimitado para eliminar centros de datos en todo el mundo.
Tercer problema — seguridad de la red
Sinovate tiene varias características que hacen que nuestra red sea altamente segura.
En la capa de prueba de trabajo (PoW) tenemos nuestro algoritmo en constante evolución, la versión actual se llama X25X. Esto tiene una cadena más larga, lo que hace cada vez más difícil para los fabricantes de ASIC y FPGA hacer un chip rentable. También tiene una nueva “etapa aleatoria” que aumenta aún más este costo.
Con la prueba de trabajo demorada proporcionada por nuestra relación con Komodo y por lo tanto, con Bitcoin, esto hace que la cadena sea altamente resistente al 51% de ataques experimentados por otros altcoins.
En la capa Infinity Node, el sistema único de quema de monedas aumenta sustancialmente el costo para cualquier atacante potencial, protegiéndonos contra Sybil, Finney y otros ataques de Masternode.

2. ¿Cuáles son las especificaciones de SINOVATE y cómo se traducen al inglés para hablantes no conocedores de criptomonedas?

SINOVATE es una moneda digital peer-to-peer que apunta a innovaciones nuevas y únicas.
  • Moneda de prueba de trabajo (POW) escalable con 533 transacciones por segundo.
  • Los nodos infinitos que controlan la inflación al quemar las monedas requeridas para configurar un nuevo nodo sin dejar de incentivar a los poseedores del nodo, lo que proporciona estabilidad y crecimiento para la red.
  • FlashSend, la velocidad del rayo confirmó las transacciones en menos de 3 segundos.
  • ShadowSend, anonimato a través de la mezcla de monedas con 5 mezclas predeterminadas.
  • Incorruptible Almacenamiento de datos de igual a igual Redes privadas con la opción DataSend, al igual que el envío de monedas.
  • Quema todas las tarifas de las transacciones por menores emisiones.
  • RSV, E-Gobernancia con un voto rotativo de 12 meses, con pagos de votos quemados por menos emisiones.

3. ¿Por qué es único SINOVATE? ¿Cómo es mejor que otros proyectos?¿Por qué prosperará?

SINOVATE tiene un equipo grande y experimentado que quiere marcar la diferencia en todo el espacio de criptomonedas mediante la creación de innovaciones únicas abiertas a todos.
Los nodos infinitos son una de las primeras innovaciones únicas que controlarán la inflación, la presión de venta y la centralización de los fondos retenidos.
Tenemos innovaciones únicas con el almacenamiento de datos en cadena, con más detalles de esto que se revelarán a su debido tiempo.

4. ¿Cómo simplificará SINOVATE el uso de la criptomoneda para la adopción masiva?

Nuestro equipo se basa en una gran diversidad de habilidades de muchas áreas de negocios. Esto nos permite diseñar y perfeccionar la experiencia de interactuar con SINOVATE Blockchain en muchos niveles, desde desarrolladores, líderes empresariales y niveles operativos, hasta la experiencia del usuario final.
Esto nos permite desarrollar el software y las experiencias del usuario desde la perspectiva de todos los involucrados, asegurando que el usuario final sea el enfoque principal.

5. ¿Quién está detrás de SINOVATE? ¿Cuáles son sus orígenes?

SINOVATE consta de 36 miembros del equipo de todo el mundo, con 3 fundadores. Aquí hay un enlace a la página web de nuestros Miembros del Equipo:
https://sinovate.io/team/

6. ¿Cómo se financiará SINOVATE?

SINOVATE recibe una comisión de fondos de desarrollo del 1.1%, que se genera a partir de recompensas en bloque para futuros desarrollos y fondos.

7. ¿Cuáles son tus planes de intercambios?

SINOVATE ya está listado en muchos intercambios. Luego de la inminente publicación del Documento Legal, se agregarán intercambios adicionales de gran volumen. Sin embargo, no podemos comentar sobre detalles en este momento.

8. ¿Qué es / será el Plan de Marketing de SINOVATE?

SINOVATE tiene una presencia muy fuerte en las redes sociales y una comunidad altamente comprometida. Recientemente hemos ampliado nuestros esfuerzos de marketing más allá de las campañas orgánicas con comunicados de prensa profesionales, videos, programas de recompensas, anuncios de búsqueda y listados.

9. ¿Cómo será la gobernanza de SINOVATE para 2020?

El gobierno de SINOVATE, llamado RSV, proporcionará a los propietarios de Nodos infinitos derechos de voto revolventes durante la vida útil de sus nodos (máximo 12 meses) en todos los desarrollos.
El tiempo limitado de votación permitirá una mayor descentralización y menos emisiones, esperamos y alentamos por completo que el futuro del proyecto sea regido por nuestros usuarios.

10. ¿Quiénes son los competidores más cercanos de SINOVATE?

No nos consideramos tener competidores como tales, ya que la misión de la fundación es hacer crecer el espacio para todos. Nos complace trabajar con todos los proyectos, tanto al aprender del gran trabajo realizado por otros como al ofrecer algo a otros proyectos con nuestro código de código abierto.

11. ¿Qué asociaciones actuales tiene SINOVATE y cuál será el propósito de estas relaciones?

Además de las asociaciones relacionadas con Masternodes, SINOVATE se asoció con KOMODO para la integración de la protección contra ataques dPoW 51%, que estará activa a fines de julio o principios de agosto de 2019.

12. Por favor, comparta el “tokenomics” para SINOVATE .

¿Qué es Tokenomics?
Tokenomics se compone de dos palabras “Token” y “Economía”.
Tokenomics es el tipo de calidad estándar de una moneda (token) Los miembros / comunidad / inversores deben buscar y ayudar a construir el ecosistema alrededor del proyecto subyacente de ese token. Los factores que influyen en la valoración de una moneda forman parte de su tokenomics. Tokenomics es un tema amplio, que contiene una variedad de componentes.

Equipo

Un proyecto prometedor debe tener un gran equipo detrás.
El Equipo SINOVATE está compuesto por 36 miembros expertos, experimentados y confiables.

Asignación de monedas

Un proyecto confiable debe tener transparencia, así como fondos, pero no de premine o ICOs.
SINOVATE anteriormente SUQA ha estado presente durante 9 meses y comenzó su viaje sin un premine o ICO.
El Equipo SINOVATE recibe un 1.1% de las recompensas de bloque por
Mayor desarrollo y comercialización del proyecto.

Marca y relaciones públicas y comunidad

Sin una red y comunidad más grande, los proyectos no pueden existir.
  • La comunidad de SINOVATE está creciendo a diario y de forma orgánica en todos los canales de marketing y redes sociales.
  • El servidor Discord tiene 4.570 miembros con un mínimo de más de 1.000 usuarios siempre en línea.
  • Los canales de Telegram tienen 8.500 miembros y el canal ruso de Telegram tiene 2.355 miembros.
  • Twitter tiene 2.785 seguidores.
  • Facebook tiene 2,000 seguidores.
  • Los canales regionales también contienen cuentas respetables de miembros.

Modelo de negocio

Los modelos de negocio son un factor crítico para las soluciones descentralizadas. Ser una moneda de transacción no diferencia un proyecto de otros, por lo que un proyecto confiable debe tener un gran modelo de negocio.
Por ejemplo: los inversores de EOS deben apostar y aferrarse a sus tokens para recibir los recursos necesarios para ejecutar aplicaciones descentralizadas.
Los propietarios de Infinity Node deben tener nodos configurados para reducir las emisiones y recibir incentivos para apoyar la red.
Nuestro sistema está diseñado para recompensar a los inversionistas tempranos y posteriores, a medida que crece la cadena de bloques y se unen más usuarios, se queman más tarifas a través del uso diario.
Las tarifas se mantienen bajas para uso individual. Sin embargo, a medida que la red crece, las recompensas para todos crecen con ella a medida que las monedas se eliminan del suministro circulante a través de la quema de tarifas y el bloqueo de los nodos infinitos. Esto conduce a un circuito de retroalimentación positiva que ayudará al crecimiento y desarrollo de SINOVATE a la vez que recompensa a los titulares de nodos, mineros, inversores y usuarios diarios. Los propietarios de nodos infinitos también serán recompensados ​​al almacenar datos confidenciales en la cadena de bloques SINOVATE.

Uso en el mundo real

Uno de los aspectos más importantes de tokenomics es usos del mundo real.
  • SINOVATE tendrá una solución descentralizada de DataSending y DataStorage de información para uso diario, por parte de cualquier persona, incluidas las empresas.
  • El segundo caso de uso más importante de SINOVATE es la solución y el uso de la herencia en criptomonedas.
La información detallada estará disponible durante julio de 2019, a través del Informe técnico de evolución.

Presencia legal

Para que un proyecto prometedor obtenga una adopción masiva, debe ser legal en todo el mundo.
El Documento Legal de SINOVATE debe publicarse poco después de la publicación de este artículo.

Moneda (Token) Estructura

Los tipos

Capa 1 o Capa 2
Como ejemplo, Ethereum (ETH) es la capa 1 y los ICO que usan la cadena de bloques ETH son la capa 2.
SINOVATE es una criptomoneda de capa 1 con su propia Blockchain.
Utilidad vs Seguridad
Jeremy Epstein, el CEO de la leyenda de Never Stop Marketing, explica que las monedas de utilidad pueden:
  • Dar a los titulares el derecho de usar la red
  • Dar a los titulares el derecho de tomar ventaja de la red votando
  • Dado que hay un límite superior en la disponibilidad máxima del token, el valor de las monedas puede aumentar debido a la ecuación de oferta y demanda.
Una moneda criptográfica que no pasa la prueba de Howey se considera un token de seguridad.
La infraestructura de Infinity Nodes de SINOVATE, el voto por gobierno electrónico de RSV y el uso de monedas SIN en IDS permiten que SINOVATE sea una moneda de utilidad, con el documento legal proporcionado por nuestro socio legal Bermúdez Tejerro.

Especificaciones de flujo de monedas

Para el flujo de monedas, un inversor en criptomoneda debe mirar lo siguiente:
  • ¿El objetivo del proyecto es construir un ecosistema continuo y estable a largo plazo?
  • ¿Cómo entran las monedas en el ecosistema y lo dejan?
  • ¿Cómo se incentiva a los inversionistas para llevar adelante el proyecto?
Flujo de monedas en la Capa 1
  • Incentivación del participante
Recompensar a los mineros y a los propietarios de Infinity Node por su participación en la red a través de la Prueba de trabajo, la Prueba de quema y la Prueba de servicio.
  • Desarrollo de plataforma
Según la teoría de la ley de Metcalfe;
Cuanta más gente en la red, más valor tendrá la red.


Efecto de red en nodos infinitos — 2 nodos 1 conexión -5 nodos 10 conexiones — 12 nodos 66 conexiones.
SINOVATE Nodos infinitos premia a los participantes por apoyar la red.
Este soporte proporciona menos emisiones y más nodos para una red saludable.

13. ¿Cuál es el presupuesto para Desarrollo y Marketing?

Se asignan 15 millones de monedas SIN a la fundación para fines de desarrollo y comercialización, a través del premio de bloque del 1.1% durante toda la vida útil de la emisión.

14. ¿Qué aspecto tendrá la Hoja de ruta después de 2019?

Habrá un Hard Fork significativo en el primer trimestre de 2020.
El nuevo Hard Fork permitirá la próxima generación de innovaciones únicas, como un nuevo consenso personalizado, la adición de una cadena paralela con POS y escalabilidad hasta niveles vistos con otras redes rápidas y más allá, al mismo tiempo que resuelve el problema de la herencia en criptografía.
Los detalles de la próxima Prueba de conceptos se publicarán en julio de 2019, dentro del Informe técnico de evolución.

15. ¿Por qué la re-marca?

SINOVATE comenzó como SUQA, que no se consideraba un nombre aceptable a nivel mundial, debido a connotaciones negativas en los idiomas ruso e inglés. La palabra SUQA se parece a la blasfemia y carece de seriedad ante los ojos de muchos miembros de la comunidad. Por lo tanto, se decidió cambiar la marca a SINOVATE, para enfatizar las innovaciones únicas que ofrece nuestro proyecto.

https://preview.redd.it/ap04urm09w731.png?width=512&format=png&auto=webp&s=96976e07173aadef849ca5f597713a15d9fb2500

16. ¿Cuál es su plan de negocios a largo plazo? ¿Qué otros casos de uso podrían implementarse en el futuro?

Hay muchos ejemplos de cómo se podría utilizar SINOVATE Blockchain en industrias en un amplio espectro de campos. La incorporación de las características únicas de blockchain combinada con la capacidad de almacenar, enviar y recuperar documentos de manera segura es una poderosa adición al conjunto de características SINOVATE.
Puede usarse junto con sistemas y procesos heredados para llevar tecnología de punta a muchas empresas, sectores y usuarios individuales.
Los datos y la documentación se almacenan de manera descentralizada, a través de la cadena de bloques SINOVATE. Esto significa que los documentos y los datos almacenados proporcionan una fuente de verdad incorruptible:
  • Solución financiera sinovate
  • Uso médico y privacidad de SINOVATE.
  • Seguro sinovate
  • Gobierno
  • Educación sinovate
  • Ir verde, ir sinovar

Recursos de Sinovate

Canales sociales https://twitter.com/SinovateChain https://bitcointalk.org/index.php?topic=5147827.0 https://www.facebook.com/SinovateBlockchain/
Noticias https://medium.com/@sinovatechain https://www.youtube.com/channel/UCdqVQvJu8yhmXUYXOcaEThg
Chat oficial https://t.me/SINOVATEChain https://discordapp.com/invite/8rxutDv
Código https://github.com/SINOVATEblockchain
Libro blanco https://sinovate.io/whitepaperv2light.pdf
Si disfrutas de la lectura, sígueme en Twitter , es bueno para Karma.
Esto no es un consejo financiero y debe hacer su propia investigación antes de invertir, y comprender si está dispuesto a perder esta inversión, ya que siempre existe un riesgo en mercados innovadores como la tecnología, la tecnología financiera y la criptomoneda, debido a regulaciones, problemas geopolíticos, Y qué no. Dicho esto, además de haber invertido en Sinovate, me compensan por mi tiempo al escribir este artículo.

Traducido por el embajador hispano musicayfarandula
submitted by sinovatehispano to u/sinovatehispano [link] [comments]


2018.08.28 10:47 kong-dao El lobby de Internet

Tiempo de lectura: 15 min.

Internet, una red de hardware (y software) entrelazados para crear una gran "red social" que permite la comunicación entre diferentes regiones del mundo.
Internet funciona como el cuerpo humano, tiene diferentes partes para funcionar como una unidad. Estas partes son:
Partiendo de la base, la información digital debe ser almacenada en un disco rígido, osea, hardware. Este hardware no es único, sino que comparte otros componentes para el almacenamiento, como CPU, memoria ram, placa madre (motherboard), etc. cada uno de estos componentes forman lo que hoy conocemos como Pc.
Un ejemplo para clarificar la idea de software sería el OS (Operative System o Sistema Operativo) Los OS más conocidos al día de hoy pueden ser Windows o Linux, entre otros. El software funciona como una especie de 'interprete', es decir, interpreta lo que el usuario quiere hacer o decir (igual que el predictor de texto) para luego procesarlo y guardarlo en el hardware.
Pero para que Internet funcione no bastaba con hardware y software, sino que también se necesitaban cables para conectar estas PCs, y fue en 1988 que empresas como AT&T comenzaron con el tendido de cables de fibra óptica transatlántica, osea cables submarinos (ver mapa) Estas infraestructuras requieren de una gran, gran, gran inversión, que no es realizada por los Gobiernos o Estados, por lo tanto Internet no es público, sino que pertenece a las empresas privadas o ISP.
(Casualmente) Con la infraestructura ya montada, en 1989 el ingeniero Tim Berners-Lee desarrolló lo que hoy conocemos como 'World Wide Web', también conocido como Web, y representado con las siglas 'www' (las mismas que anteceden a cualquier página web) La 'Web' tal y como la conocemos funciona con URLs (Uniform Resource Locators) Las URLs son dominios web, osea, el nombre de la página. Cada una de estas URL o nombres se almacena en un Server (servidor) instalados en 'Datacenters' o 'Web hosting' o 'Cloud'. Las siglas cambian, pero al fin y al cabo estamos hablando de PCs, osea, hardware; la información no está en ninguna "nube", no se almacena en el aire, necesita de un lugar físico para ser escrito, cada vez más grande y que consume realmente enormes recursos eléctricos. Un libro no existiría sin un lugar físico donde plasmar las letras o palabras, con la información digital pasa lo mismo, debe ser 'escrita' de forma física. Esta información almacenada en servidores no tiene sentido que esté aislada sino ¿para qué necesitaríamos Internet? Internet es una interconexión hecha por sectores privadas o ISP. Muchas de estas empresas dan servicios de 'hosting' o 'cloud' a grandes compañías multinacionales y estatales, que al mismo tiempo dan conectividad a nivel nacional e internacional gracias al tendido de cables marinos y cableado local. El cableado local puede ser ADSL, UTP, Coaxial, o actualmente Fibra Óptica, para ello como dijimos se requiere una gran infraestructura que necesita de una gran cantidad de dinero que se va a invertir en el país donde se haga, se tendrán que cavar túneles, montar torres, compra de departamentos, campos o áreas donde instalar los nodos), etc. De esta inversión los beneficiados están en la cúpula política.
Al mismo tiempo, estas empresas pueden tener empresas sub-contratadas para reducir los costos. La lista de ISP con inversión en cables marinos es larga y compleja, sin embargo vale la pena mencionar algunos de los más conocidos a nivel mundial (para más detalles ver anexos):
Estas empresas multinacionales fueron fundadas en diferentes países y por diferentes "grupos inversores", sin embargo necesitan de acuerdos mutuos entre ellas para que la información fluya, y para que esto suceda, son necesarias otras empresas de menor envergadura que funcionen como ISP locales o regionales. En los últimos años, el monopolio submarino empezó a cambiar con empresas como Google , Facebook, Amazon, Microsoft sumándose a la carrera inversionista. Por un lado está el monopolio internacional, y por el otro, el monopolio regional de ISPs en manos de empresas como Vodafone, Orange, T-System, Claro, Xfinity, Hughesnet, etc. Estas empresas no poseen cables marinos sin embargo son las encargadas de montar las infraestructuras sobre tierra. De esta forma Internet se expande por mar y tierra para conectar la más grande "red social" del mundo.
Para que Internet funcione, los ISP son imprescindibles ¿por qué?
Las URL son lo que comúnmente se conocen como 'dominios web', éstos son nombres registrados de forma legal por cuestiones de derechos de autor, así cada persona o empresa tiene que registrar el nombre de su web. Las PCs entienden números, no con letras, y la información que viaja por los cables funciona por voltajes o pulsos de luz traducidos en 1 y 0, por lo tanto es necesario traducir ese texto en números, y para ello existe lo que se llama DNS (Domain Name System / Sistema de nombres de dominio) Estos DNS están asociados al llamado direccionamiento IP. El direccionamiento IP funciona de la misma forma que un correo: Supongamos que tenemos un amigo en "x" lugar y le queremos enviar una carta, para ello es necesario conocer el país, la provincia, el código postal, el domicilio y finalmente el nombre del destinatario. De esta forma serán necesarios los datos de origen y destino. Las IP funcionan deforma similar, la IP establece de qué país, de qué ciudad, y quien es el propietario y a qué otra IP se quiere conectar.
Dentro del mundo de las telecomunicaciones, existe lo que se llaman IP Públicas y son las únicas válidas para navegar por Internet. ¿Quién tiene o posee IPs Públicas? Las empresas privadas que dan las conexiones: los ISP. Actualmente las direcciones públicas de todo el mundo se están agotando (IPv4) y para solventar esta situación se creó lo que se llama IPv6, pero no entraremos en estos detalles.
Anteriormente dijimos que las PC funcionan con números, las IP son números, por ejemplo 123.456.789.000 que van asociados a lo que se llaman Mac Address. La Mac Address sería como el número de serie del hardware, único e irrepetible en todo el mundo. Entonces por medio de una IP se puede obtener quién es el propietario de esa mac-address, quien es la empresa que le está dando el servicio, dónde está ubicada geográficamente, etc. Todo, absolutamente todo lo que se conecta a Internet tiene mac-address: los teléfonos móviles, las tablet, las PCs, Televisores Smart, consolas de videojuegos, etc.
Cuando se contrata un servicio de Internet a un ISP o Proveedor de Servicios, es necesario firmar o aceptar las clausulas y condiciones de la empresa, para ello se van a solicitar datos como domicilio, nombres y apellidos entre otros. De esta forma los ISP funcionan como "base de datos" para los Estados o Gobiernos, conglomerando a los clientes que pagan por la conexión con el mundo, osea Internet. Pero no solamente tienen este tipo de información, también conocen las conexiones que se hacen desde la PC al servidor que almacena el URL o dominio web. Así, los ISP, tienen un registro de cada empresa y ciudadano por las conexiones que realiza, montando así un 'perfil' de cada usuario ¿¡Cómo!?
Supongamos que la Pc A se quiere conectar a www.google.com y después a www.facebook.com se vería de la siguiente forma:
Pc (mac-address + IP Privada) -----> ISP (IP Pública) -----> Servidor de Google donde se almacena la URL www.google.com (IP Pública)
Pc (misma mac-address + misma IP Privada) ------> ISP (IP Pública)------> Servidor de Facebook donde se almacena la URL www.facebook.com (IP Pública)
Esta conexión queda temporalmente almacenada en los router, switches, firewall y demás equipos del ISP, y por cada consulta a las diferentes web se va armando una tabla que se conoce como "Tabla de ruteo/ruting". Como dijimos, las mac-address son únicas e irrepetibles, por lo tanto cada persona que usa Internet tiene al menos 1 mac-address en su casa o bolsillo. Cuando se compra un hardware que tenga mac-address, queda registrado en la tienda donde se compró, quién lo compró, el valor que le costó, la ubicación donde se hizo la compra, y mucha más información. Todo esto se conoce como metadata son los datos de los datos. Esta información no es la única que se "da" cuando se establecen las conexiones a una web, también están los denominados cookies. Las Cookies son pequeños archivos que dejan las páginas web en la Pc del usuario, para que la información se cargue de forma instantánea y no le agarre un ataque de ansiedad (ironía). Pero tampoco entraremos en estos detalles.
Es bien conocido el lobby entre el sector privado y los gobiernos, la venta de base de datos, osea, la venta de información o metadata (Ya lo dijo el filósofo Francis Bacon: "La información es poder") No se trata de un método actual, sino que viene siendo utilizado desde tiempos anteriores a la era digital, sucedía con las empresas de telefonía cuando llamaban para ofrecer los productos o servicios (ver anexos), también sucedía con los CV cuando los sectores de Recursos Humanos pasaban la información a otras compañías, y muchos otros miles de casos más. Esta manipulación de la información se hizo siempre a espaldas de los usuarios, sin su consentimiento y no por eso va a cambiar, fue y seguirá siendo un negocio. En la era digital, la información ocupa mucho menos espacio que los papeles y por lo tanto es más fácil de almacenar, el historial completo de una persona desde su nacimiento hasta la actualidad, puede ocupar tan sólo unos cuantos Megabytes o siendo generoso Gigabytes que pueden entrar en un pendrive USB, en un disco rígido, server, cloud, etc. volvemos al principio del texto: hardware, uno que no es propio sino que pertenece a empresas privadas.
Los servidores, hoy llamados "cloud", tienen la información que subimos (como si el concepto fuera etéreo, como si nuestra información no estuviera siendo guardada en ningún lugar, como si fuera una nube en el cielo. La ingenuidad nos empuja al abismo de la ignorancia y se caemos en él, pocos tienen la voluntad para salir) ¿Cómo es que la empresas privadas obtienen nuestra información (en sus hardwares)? Facebook, Google, Yahoo, Hotmail, Dropbox, Whatsapp, Instagram, Youtube, Twitter, Linkedin, Paypal, etc. usan hardware, son servidores donde los usuarios "guardan" sus cosas y acceden de forma remota. Cada vez que utilizamos estos servicios, significa que aceptamos las políticas de "privacidad" de cada una de estas compañías. Por ejemplo, aquellas personas que utilizan el servicio de Whatsapp (aplicación propietaria de Facebook) acepta las políticas de privacidad en las que se autoriza a las compañías a vender nuestra información a otras compañías o gobiernos:
Podemos ceder con libertad todos nuestros derechos y obligaciones en virtud de estas Condiciones a nuestras afiliadas o en relación con la fusión, adquisición, reestructuración o venta de activos, o de pleno derecho u otro modo. Así mismo, podemos transferir tu información a cualquiera de nuestras afiliadas, a entidades sucesoras o a un nuevo propietario. En el caso de que se llevase a cabo dicha cesión, estas Condiciones seguirían rigiendo tu relación con el tercero que recibiese nuestros derechos y obligaciones. Esperamos que sigas usando WhatsApp. No obstante, si no aceptases esta cesión, deberías eliminar tu cuenta para dejar de usar nuestros Servicios.

Aceptar este tipo de políticas dan pie a situaciones como la conocida por el caso de Cambridge Analytica (ver anexos) en el que la información de los usuarios se vende/cede a Gobiernos o sectores privados con fines políticos, comerciales o de otra índole desconocida a las personas (o quizás no tanto) y que pueden ser utilizados para "conocer" a los individuos, que unidos forman sociedades, y las sociedades forman Estados o Naciones, manejadas por los políticos y las empresas privadas que les llenan los bolsillos. Los que conocen este tipo de funcionamiento, son los hoy denominados 'whistblowers' o informantes, que son censurados, condenados, asilados, y estigmatizados por el establishment que se ve afectado. Existen varios ejemplos de revolucionarios que quisieron hablar y fueron censurados:
​La lista sigue, es bastante extensa. Estas personas lograron acceder a los documentos necesarios para mostrar el 'lobby del establishment', le hicieron público y sufrieron las consecuencias, algunos tan letales como la muerte, otros se convirtieron en presos políticos, otros condenados a largos años de prisión...todo por informar a la sociedad. Con la ayuda de los medios de comunicación, las cuales también son una mezcla de sectores privados y públicos (donde también se hace lobby) lograron que las personas los olviden de estos defensores de la información.

Anexos:
Cables submarinos:
ISP por región
10 Facts About the Internet's Undersea Cables

Privacidad y datos:
Welcome to the Age of Privacy Nihilism
Here is all the data Facebook and Google have on you
Whatsapp Policy
Facebook Policy
Google Policy

Caso: Cambrige Analytica
https://www.theguardian.com/news/2018/ma26/the-cambridge-analytica-files-the-story-so-far
https://www.businessinsider.com/cambridge-analytica-trump-firm-facebook-data-50-million-users-2018-3/?IR=T
https://www.huffingtonpost.com/topic/cambridge-analytica
submitted by kong-dao to u/kong-dao [link] [comments]


2017.02.27 17:19 pinchitony Si soy una persona física ante SAT ¿Por qué no me deja deducir todo lo que me cobra IVA?

¿Por qué clasifica cosas como que "no son indispensables para mi negocio"?
Por ejemplo, hago páginas web, compré un serrucho, me cobraron IVA. En las páginas web que hago a veces monto pequeños cortos o animaciones hechas en físico, y en eso a veces necesito cortar madera para armar algo y por lo tanto necesito un serrucho (así como otras herramientas para trabajo físico), sin embargo para hacienda como lo único necesario para hacer una página web es una computadora, pues no lo puedo deducir.
Ahora, cosas que "sí son indispensables para mi negocio", como pagar renta en un Data Center, no las puedo deducir porque están en Estados Unidos. Tampoco puedo deducir software a menos de que la compañía tenga una oficina en México y facturen, lo cuál se reduce a Adobe y Microsoft… De risa.
Las regulaciones de Hacienda me dañan y me hacen estar en completa desventaja como pequeña empresa. Si yo rentara el Data Center en México, ofrecería un servicio de pésima calidad o de altísimo precio, haciéndome imposible competir con cosas como Godaddy que también venden en México. ¿Qué puedo hacer?
¿Hay alguna forma de ampararse? ¿Se puede hacer una campaña para que cambien eso (aunque se necesite meterle mucho trabajo)?
submitted by pinchitony to mexico [link] [comments]


2016.12.16 14:21 hmillos Busco parnet freelance en GDL para soporte IT en Redes, PCs, Windows, mail

Buen día,
Con el permiso de los mods publico este anuncio que les puede interesar
Les escribo desde Colombia en donde tengo una empresa de soporte IT a usuarios de hogares y empresas, sin embargo, tenemos un contrato con una multinacional con presencia en México (DF, Querétaro, GDL, Monterrey, Mérida, entre otros) para brindar soporte IT en sus oficinas.
Estamos buscando socio o partner en Guadalajara para atender estos servicios que solicite mi cliente, algunas de las actividades a realizar son las siguientes:
Quisieramos saber si en este sub hay gente que se dedique a dar soporte en este tipo de areas (freelance) y que esté interesado en apoyarnos con los servicios que solicite nuestro cliente.
El único requisito son los conocimientos, la experiencia y las ganas de trabajar
En caso de estar interesados podrían escribir en este post o por mensaje privado, igualmente también pueden contactarnos en h(at)rackbot.co o info(at)rackbot.co. Nuestra página web
Saludos
submitted by hmillos to mexico [link] [comments]


2016.10.24 20:15 841067 Friendly reminder that Riseup.net is still greatly struggling. If you can help out, it helps us all...

The comrades at Riseup run a fantastic email service for the anti-capitalist community, and do so under great duress. While the funding crisis that occurred in September was averted, they are by no means out of the woods yet. What follows is the text of a recent mail (10/18/16) Riseup sent updating users on the situation:
[en] English - Crisis averted! [de] Deutsch - Krise abgewendet! [pt] Português - Crise evitada! [es] Castellano - ¡Crisis superada! [fr] Français - Une crise évitée [it] Italiano - Crisi evitata!

[en] English

Crisis averted!

Thanks again to all the people who contributed in September in response to our urgent appeal. Your generous response was overwhelming and inspiring.
Many people grew alarmed after reading our last newsletter, and wrote us to ask how serious our situation actually is. Yes, our financial situation has been dire. It is also true that Riseup has weathered lightning strikes, melting computers, internal conflict, illness, national borders, and a car crash. We cannot confirm the alien abduction. Riseup is a quixotic project: the thing we do is persevere, against all reason.
Somehow it works, but this is not a sustainable way to operate. What would it look like if Riseup was run properly? Help tickets would be answered in a timely manner, our services would be more reliable and more secure, and you would not need a different account for each different service. Most importantly, Riseup would be more accountable and more responsive to the needs of the communities we seek to serve. Although your generous support has averted our current crisis, Riseup does not yet generate the donations or the volunteer labor needed for Riseup to thrive.
This means we are going to keep asking for your support! If you missed out, it is never too late to donate. Please visit https://riseup.net/en/donate

Quota increased

Back in June, we said we would put all donations received that month toward increasing quota. We received enough money to double quota, and we will be increasing quota again as soon as we can. A few things to remember about quota:

Security practices for everyone

Computer security is hard, and even big corporations get it wrong most of the time. What is an activist to do? There are four easy first steps that you should take to get started:
(1) Do not open email attachments. Honestly, just don't do it, ever. Email attachments are the single most common cause of security problems. If you must open an email attachment, first contact the sender and confirm that they sent it. In general, you can never trust the identity of the sender [1].
(2) Use a password manager. Some password managers are better than others, but what really matters is that you start using one. Let your beautiful brain fill up with something better than passwords. Remember one long password, and let the computer remember everything else.
(3) Keep your software and operating system up to date. The sad reality is that technology is a never ending treadmill of doom. If you are running old software, you are probably exposing yourself to all sorts of known vulnerabilities that an attacker can take advantage of.
(4) Check out our Better Web Browsing tutorial: https://riseup.net/en/better-web-browsing
[1] Technical note: It is possible to verify the identity of the sender, if the message is signed with OpenPGP or S/MIME. Otherwise, even technically savvy people need to exercise extreme caution (for example, DKIM doesn't prevent domain name homograph attacks, a phishing method using similarly looking characters. Our help page on Phishing - https://riseup.net/en/phishing - has more info).

[de] Deutsch

Krise abgewendet!

Danke nochmal an alle, die im September auf unseren dringenden Spendenaufruf reagierten. Eure großzügige Antwort war überwältigend und ermutigend.
Viele waren nach unserem letzten Newsletter aufgeregt und fragten uns, wie ernst die Situation im Moment ist. Ja, unsere finanzielle Situation war ernst. Auch ist es wahr, dass Riseup unter mehren Blitzeinschlägen, geschmolzenen Computern, internen Konflikten, Krankheit, nationalen Grenzen und einem Autounfall zu leiden hatte. Die Alien-Entführung können wir allerdings nicht bestätigen. Riseup ist ein überwältigendes Projekt: wir halten durch, unter allen Umständen.
Irgendwie funktioniert es, aber es ist keine nachhaltige Arbeitsweise. Wie würde es aussehen, wenn Riseup richtig laufen würde? Hilfe-Tickets würden zeitnah bearbeitet werden, unsere Dienste wären verlässlicher und sicherer und es wäre nicht nötig, getrennte Konten für jeden einzelnen Dienst zu haben. Insbesondere wäre Riseup verantwortlicher und würde besser auf die Wünsche aus der Gemeinschaft reagieren, der wir zu dienen versuchen. Auch wenn eure schnelle Unterstützung unsere aktuelle Krise abgewendet hat, generiert Riseup nicht genügend Spenden, oder freiwillige Mitarbeit, die nötig ist, um Riseup erblühen zu lassen.
Das bedeutet, dass wir weiterhin um eure Untstützung betteln müssen. Es ist nie zu spät zu spenden, bitte schaut auf https://riseup.net/de/spenden

erhöhte Quota

Im Juni versprachen wir euch, alle Spenden in diesem Monat zur Erhöhung der Quota zu verwenden. Wir erhielten genug Geld, um euren Speicherplatz zu verdoppeln und sobald wir können, wird es mehr geben. Zur Erinnerung bezüglich Quota:

Sicherheitspraktiken für alle

Computersicherheit ist schwer und selbst große Unternehmen machen es die meiste Zeit falsch. Was gibt es für Aktivisti zu tun? Es gibt vier einfache Schritte um zu beginnen:
(1) Computersicherheit ist schwer und selbst große Unternehmen machen es die meiste Zeit falsch. Was ist für uns zu tun? Hier vier einfache Schritte um zu beginnen: [1].
(2) Benutze ein Passwortprogramm. Einige Passwort-Manager sind besser als andere, aber was wirklich zählt, ist dass du beginnst, einen zu benutzen. Fülle dein Gehirn mit wichtigeren Dingen als Passwörtern. Merke dir ein langes Passwort und lasse den Computer alles andere für dich merken.
(3) Halte dein System aktuell. Die traurige Wirklichkeit ist: Technologie bleibt eine verhängnisvolle Tretmühle. Wenn du alte Software benutzt, bist du vielen SIcherheitslücken ausgesetzt, von denen Angreifer profitieren können.
(4) Lest unsere Anleitung zu besserem Surfen: riseup.net/en/better-web-browsing: https://riseup.net/de/better-web-browsing
[1] Technische Anmerkung: Es ist möglich, die Authentizität eines Senders zu verifzieren, wenn die Nachricht mit OpenPGP oder S/MIME unterzeichnet ist. Andernfalls müssen auch technisch versierte Menschen sehr vorsichtig sein (DKIM schützt nicht vor homographischen Domainnamen-Angriffen, einer Form des Phishing mit ähnlich aussehenden Schriftzeichen, Unsere Hilfeseite zu Phishing - https://help.riseup.net/de/email/scams/phishing - enthält weitere Infos darüber).

[pt] Português

Crise evitada!

Gratidão novamente a todas as pessoas que contribuiram em setembro em resposta ao nosso apelo urgente. Sua resposta generosa foi impressionante e inspiradora.
Muitas pessoas ficaram alarmadas ao ler nosso último boletim, e nos escreveram para perguntar quão séria é de fato nossa situação. Sim, nossa situação financeira tem estado terrível. Também é verdade que Riseup resistiu a tempestades de relâmpagos, derretimento de computadores, conflitos internos, doenças, fronteiras nacionais, e uma batida de carro. Só não podemos confirmar mesmo a abdução alienígena. Riseup é um projeto quixotesco: o que fazemos é perseverar, contra o bom senso e a razão.
De alguma forma isso funciona, mas esta não é uma forma sustentável de operar. Como seria se Riseup fosse gerenciado de forma correta? Os tíquetes de ajuda seriam respondidos em tempo hábil, nossos serviços seriam mais confiáveis e mais seguros, e você não precisaria de uma conta diferente para cada serviço. Mais importante, Riseup seria mais responsável e teria melhor capacidade de resposta com relação às necessidades das comunidades que procuramos atender. Mesmo que sua ajuda generosa tenha evitado a crise atual, Riseup ainda não gera as doações ou o trabalho voluntário necessário para prosperar.
Isso significa que vamos continuar pedido sua ajuda! Se você ficou de fora, nunca é tarde demais para doar. Por favor visite https://riseup.net/pt/donate

Cota aumentada

Lá atrás, em Junho, dissemos que direcionaríamos todas as doações recebidas naquele mês para aumentar as cotas. Recebemos dinheiro suficiente para dobrar as cotas, e vamos aumentar as cotas novamente assim que pudermos. Algumas coisas para se lembrar sobre cotas:

Práticas de segurança para [email protected]

Segurança computacional é difícil, e mesmo grandes corporações erram na maioria das vezes. O que ativistas devem fazer? Existem quatro primeiros passos simples que você deve dar para começar:
(1) Não abra anexos de email. Sério mesmo, simplesmente não os abra, nunca. Anexos de email são a causa mais comum de problemas de segurança. Se você precisa abrir um anexo de email, primeiro entre em contato com quem enviou para confirmar que a pessoa realmente o enviou. Em geral, você não pode nunca confiar na identidade de quem enviou [1].
(2) Use um gerenciador de senhas. Alguns gerenciadores de senhas são melhores que outros, mas o que realmente importa é que você comece a usar um. Deixe seu cérebro encher com algo melhor do que senhas. Lembre de apenas uma grande senha e deixe o computador lembrar de todo o resto.
(3) Mantenha seus programas e sistema operacional atualizados. A realidade triste é que a tecnologia é uma esteira infinita cheia de desgraças. Se você estiver usando programas velhos, você provavelmente está se expondo a todo tipo de vulnerabilidades conhecidas as quais um atacante pode tirar vantagem.
(4) Verifique nosso tutorial para melhorar sua navegação na rede: https://riseup.net/pt/better-web-browsing
[1] Nota técnica: É possível verificar a identidade de quem enviou, se a mensagem estiver assinada com OpenPGP ou S/MIME. De outra forma, mesmo pessoas tecnicamente experientes precisam ter um cuidado extremo (por exemplo, DKIM não evita ataques homográficos em nomes de domínios, um método de phishing que usa caracteres similares para confundir. Nossa página de ajuda sobre Phishing - https://help.riseup.net/pt/email/scams/phishing - contém mais informações).

[es] Castellano

¡Crisis superada!

Gracias de nuevo a toda la gente que contribuyó en Septiembre en respuesta a nuestro llamada urgente. Vuestra generosa respuesta fue sobrecogedora e inspiradora.
Mucha gente se alarmó tras leer nuestro último boletín, y nos escribió para preguntarnos cómo de seria es nuestra situación. Es cierto, nuestra situación financiera ha sido desesperada. También es verdad que Riseup se ha curtido con rayos, ordenadores fundidos, conflictos internos, enfermedades, fronteras nacionales, y un accidente de coche. No podemos aún confirmar la abducción alienígena. Riseup es un proyecto quijotil: lo que hacemos es persistir, contra toda razón.
De alguna manera funciona, pero esta no es una forma sostenible de operar. ¿Cómo sería si Riseup funcionase adecuadamente? Los tickets de ayuda sería respondidos en buen tiempo, nuestros servicios serían más fiables y seguros, y no necesitarías una cuenta para cada diferente servicio. Más importante aún, Riseup sería más responsable y receptivo a las necesidades de las comunidades que buscamos servir. Aunque vuestro generoso apoyo ha evitado la crisis actual, Riseup no genera aún los donativos o el trabajo voluntario necesario para prosperar.
¡Eso significa que vamos a seguir pidiendo vuestro apoyo! Si perdiste la ocasión, nunca es demasiado tarde para donar. Por favor visita: https://riseup.net/es/donar

Aumento de cuota

En junio, anunciamos que invertiríamos todas las donaciones de ese mes en incrementar la cuota. Recibimos suficiente dinero para doblar la cuota, y volveremos a incrementar la cuota tan pronto como podamos. Algunas cosas para recordar sobre la cuota:

Prácticas securitarias para todas

La seguridad digital es difícil, e incluso las grandes corporaciones cometen errores la mayor parte del tiempo. ¿Qué puede hacer una activista? Hay cuatro pasos fáciles que deberías tomar para empezar:
(1) No habrás adjuntos. Honestamente, simplemente no lo hagas, nunca. Los adjuntos son la causa única más común de problemas securitarios. Si tienes que abrir un adjunto, primero contacta la remitente y confirma que lo enviaron. En general, nunca puedes confiar la identidad de la destinataria [1].
(2) Utiliza un gestor de contraseñas. Algunos gestores de contraseñas son mejores que otros, pero lo que realmente importa es que empieces a usar uno. Deja que tu cerebro se llene de cosas más hermosas que contraseñas. Memoriza una contraseña larga y deja que el ordenador recuerde todo lo demás.
(3) Mantén tu software y sistema operativo al día. La triste realidad es que la tecnología es una maldición sin fin. Si utilizas software viejo, probablemente estás exponiéndote a todo tipo de vulnerabilidades conocidas que un atacante puede utilizar.
(4) Consulta nuestro tutorial para Una Mejor Navegación: https://riseup.net/en/better-web-browsing (sólo disponible en inglés por el momento)
[1] Nota técnica: es posible verificar la identidad de la remitente, si el mensaje está firmado con OpenPGP o S/MIME. Sino es así, incluso gente entrenada técnicamente tiene que tomar extremadas precauciones (por ejemplo, DKIM no evita ataques homográficos de nombre de dominio, un método phishing que utiliza caracteres de similar apariencia. Nuestra página en Phising – https://riseup.net/en/phishing - tiene más información)

[fr] Français

Une crise évitée

Merci à toutes les personnes qui ont contribué en septembre après notre urgent appel aux contributions. La générosité de vos dons est à la fois frappante et inspirante.
Beaucoup d'entre vous ont été apeuré-e-s à la lecture de notre dernière lettre d'information et nous avez écrit pour nous demander à quel point notre situation était mauvaise. Oui, il est vrai que nos finances étaient critiques. Il est également vrai que Riseup a survécu à la foudre, à la destruction d'ordinateurs, aux conflits internes, à la maladie, aux frontières étatiques et à un accident de voiture. Nous ne pouvons pas confirmer l'enlèvement d'un-e des notres par des aliens. Riseup est un projet à la Don Quichotte: contre toute attente, nous persévérons.
Cela fonctionne d'une certaine manière, mais ce n'est pas un façon pérenne de fonctionner. À quoi ressemblerait Riseup si les choses fonctionnaient correctement? Nous réponderions aux tickets d'aide rapidement, nos services seraient plus stables et plus sécuritaires et vous n'auriez pas besoin d'un compte différent pour chaque service. Plus particulièrement, Riseup serait plus redevable et plus à l'écoute des besoins des communautés que nous aidons. Même si votre généreux support nous a aidé à traverser cette crise, Riseup n'as pas encore les ressources financières ou le travail bénévole pour s'épanouir complètement.
Cela veut donc dire que nous allons continuer à vous demander de l'aide! Si vous n'avez pas eu l'occasion de faire un don, il n'est pas trop tard! Allez faire un tour au https://riseup.net/fdonate.

Des quotas plus grands

Nous vous avions annoncé que tous les dons reçus en juin allaient être utilisés pour augmenter les quotas. Nous avons reçu assez d'argent pour doubler les quotas et nous allons les augmenter encore dès que possible. Voici quelques trucs à se rappeler à propos des quotas:

Des pratiques sécuritaires pour tout le monde

La sécurité informatique est difficile et même les grandes compagnies se trompent la plupart du temps. Qu'est-ce qu'un-e activiste peut faire? Voici quatre étapes de base pour vous lancer:
(1) N'ouvrez pas les pièces-jointes dans les courriel. Pour de vrai, ne les ouvrez jamais. Les pièces-jointes sont la cause la plus importante de problèmes de sécurité informatique. Si vous devez ouvrir une pièce-jointe, prenez la peine de contacter la personne qui vous a envoyé le courriel en premier pour vérifier que c'est bien elle qui vous l'a envoyé. En général, vous ne pouvez jamais faire confiance en l'identité d'une personne qui vous envoie un courriel [1].
(2) Utilisez un gestionnaire de mots de passe. Certains gestionnaires sont meilleurs que d'autres, mais le plus important est d'en utiliser un. Laissez votre merveilleux cerveau se remplir d'autre choses que des mots de passe. Rappelez-vous d'un seul long mot de passe et laissez votre ordinateur se rappelez des autres.
(3) Gardez vos programmes et votre système d'exploitation à jour. La triste réalité est que la technologie est un tapis roulant de la mort sans fin. Si vous utilisez des vieux programmes, vous vous exposez à toutes sortes de vulnérabilités que des personnes malicieuses peuvent exploiter.
(4) Allez faire un tour sur notre tutoriel pour améliorer votre navigation sur le web: https://riseup.net/fbetter-web-browsing
[1] Note technique: Il est possible de vérifier l'identité d'une personne qui vous envoie un courriel si le message est signé par OpenPGP ou S/MIME. Sans cela, même les personnes qui s'y connaissent doivent faire preuve d'une grande précaution (par exemple, DKIM n'empêche pas les homographes de noms de domaines, une méthode qui utilise des caractères similaires. Plus d'infos sur notre page d'aide sur l'hameçonnage (phishing) - https://help.riseup.net/en/email/scam/phishing ).

[it] Italiano

Crisi evitata!

Grazie ancora a tutte le persone che hanno contribuito nel mese di settembre in risposta al nostro appello urgente. La vostra generosa risposta è stata travolgente e motivante.
Dopo aver letto l'ultima newsletter, molte persone si sono allarmate e ci hanno scritto chiedendoci quanto la situazione fosse effettivamente grave. Sì, la nostra situazione finanziaria è stata disastrosa. E' anche vero che Riseup è stata colpita da scioperi a sorpresa, computer che si sono fusi, conflitti interni, malattie, confini nazionali e un incidente d'auto. Non possiamo confermare un rapimento da parte degli alieni. Riseup è un progetto visionario, idealista e romantico: quello che facciamo è perseverare contro qualsiasi raziocinio.
In qualche modo funziona, ma questa non è una maniera sostenibile di operare. Come sarebbe Riseup se le cose funzionassero bene? I ticket di richiesta di supporto riceverebbero risposte in breve tempo, i nostri servizi sarebbero più affidabili e sicuri e voi non avreste bisogno di usare account differenti per i vari servizi. E ancora più importante, Riseup sarebbe più responsabile e reattivo alle necessità delle comunità alle quali cerchiamo di dare servizio. Sebbene il vostro generoso aiuto ha evitato la crisi attuale, Riseup non genera ancora le donazioni o il lavoro volontario necessari a per prosperare.
Questo significa che stiamo per chiedere di nuovo il tuo supporto! Se ti sei fatto sfuggire l'occasione, sappi non è mai troppo tardi per fare una donazione. Visita https://riseup.net/it/donare

Spazio per la posta aumentato

In giugno, dicemmo che avremmo voluto usare le donazioni ricevute nel corso di quel mese per aumentare il limite massimo di spazio per la posta elettronica. Abbiamo ricevuto abbastanza denaro per raddoppiare lo spazio e l'aumenteremo di nuovo appena possibile. Un po' di cose da ricordare riguardo lo spazio disponibile per la posta:

Pratiche di sicurezza per tutti

La sicurezza informatica è un tema difficile ed anche le grandi aziende spesso sbagliano. Cosa può fare un attivista? Per iniziare ci sono quattro facili passi che devi fare:
(1) Non aprire gli allegati dei messaggi di posta elettronica. Davvero, non farlo, mai. Gli allegati delle email sono la causa più comune dei problemi di sicurezza. Se proprio devi aprire un allegato, prima contatta il mittente e chiedi conferma che l'abbia realmente mandato. In generale, non devi mai fidarti dell'identità del mittente [1].
(2) Usa un password manager. Alcuni sono migliori di altri, ma quello che è più importante è iniziare ad usarne uno. Lascia che il tuo splendido cervello si riempia di cose migliori delle password. Ricorda solo una password molto lunga e lascia che il computer si ricordi tutte le altre cose.
(3) Mantieni il software ed il sistema operativo aggiornato. La triste realtà è che la tecnologia è un tragico tran tran senza fine. Se usi software vecchio, ti stai probabilmente esponendo a tutte le possibili vulnerabilità conosciute delle quali si potrebbe servire un possibile aggressore.
(4) Dai un'occhiata al nostro tutorial Better Web Browsing: https://riseup.net/en/better-web-browsing
[1] Nota tecnica: è possibile verificare l'identità del mittente se il messaggio è firmato con OpenPGP o S/MIME. Diversamente, anche le persone più sagge dal punto di vista tecnico devono esercitare la massima cautela (per esempio, DKIM non impedisce gli attacchi omografici sui nomi dei domini, un metodo di phishing che viene fatto attraverso l'uso di caratteri simili nel costruire i nomi dei domini. La nostra pagina di help sul Phishing - https://riseup.net/en/phishing - ha ulteriori informazioni).
submitted by 841067 to Anarchism [link] [comments]


2016.10.21 20:37 bahamas10_ [SOMBRA] ITT I explain, reproduce, and verify all known hints and solutions thus far [PT. 3]

Sombra Overwatch ARG

Thank you everyone for the great responses I have received from Part 1 and Part 2 of this "series"... I present to you part 3!
DISCLAIMER: I didn't discover ANY of these hints - I only went through to verify and hopefully explain all of the findings from the community. This is not meant to reiterate or replace what The Wiki has, but instead is meant to provide very clear and very explicit steps to show that these hints can be reproduced and verified by others.
All code and assets referenced in this post can be found in my GitHub Sombra Repository released for free under the MIT License

A Moment In Crime

On Tuesday, October 18th, the progress bar on http://amomentincrime.com finally reached 100%.

amomentincrime.com

Pulling the source code now reveals:
$ curl amomentincrime.com  
...Estableciendo conexi?n...
...Protocolo Sombra v1.95 iniciado...

...Transmisi?n finalizada - finalizando carga...
...Carga finalizada. Unidad Bastion E-54 comprometida...

...Terminando conexi?n...

You can see mention of Bastion (E-54) being compromised, as well as what looks like an Overwatch version number in the comments
v1.4.0.2.32448 

Overwatch Patch 10/19/2016

Bastion Beeps

A patch went out on Wednesday that made it so Bastion would start spewing out seemingly random beeps when in Dorado.
YouTube Video: https://www.youtube.com/watch?v=Hkd__ceYm-Y
Reddit user DecimalPoint took the audio from it, ran it through Audacity, and extracted the waveform revealing binary morse code.
![Bastion Binary](https://raw.githubusercontent.com/bahamas10/sombra/maste06-a-moment-in-crime/assets/bastion-binary.png)
Original Comment: https://www.reddit.com/Overwatch/comments/58bimb/bastion_dorado_sombra_beeps/d8z0ei2
Decoding the beeps as morse code we have the following output:
S Q O F J F B N I T I Z W G D X S D O 

Bastion Morse Code

Vigenere Cipher

The next step was to take this string of letters and convert it to something meaningful.
Like the Mystery Achievement, a Vigenère cipher was used to encrypt this data. The key to the cipher is the last bit of data we found from the Skycoder Forum Post, [email protected]:[email protected]@.
$ cat bastion.txt SQOFJFBNITIZWGDXSDO $ cat bastion.txt ../04-mystery-achievement/vigenere-decode [email protected]:[email protected]@ ACCESSWWWLUMERICOMX 
Adding spaces and punctuation for readability we get
Access www.lumerico.mx
Note: some Vigenere cipher algorithms online incorrectly handle special characters in the input or key - a proper cipher should strip special characters from the key and passthrough special characters from the input field.

Lumerico's Website

Phone Recording

Accessing the website we see a phone number at the bottom of the page
(510) 766-2726
Calling this phone number results in a pre recorded Spanish message that eventually gets cut off, and all that is heard is a womans voice reading numbers in Spanish (really awesome Blizzard!!)
Recording: https://soundcloud.com/jackwilsdon/510-766-2726a
Here are the numbers heard
5 2 4 1 3 static 23 4 14 8 6 18 17 23 21 18 15 
Converting the numbers to letters by using their value to represent their spot in the alphabet (1 is a, 2 is b, etc.) we get:
$ cat numbers.txt ./numbers-to-text EBDAC WDNHFRQWURO 
Now, running the result through a Caesar Cipher with the constant 23 we see:
$ cat numbers.txt ./numbers-to-text ../05-skycoder-forum-post/caeser-cipher 23 BYAXZ TAKECONTROL 

Take Control

Ignoring the first section for now (used later), we have TAKECONTROL. This gets appended to the original URL which gives us http://lumerico.mx/TAKECONTROL
$ curl https://lumerico.mx/TAKECONTROL/index.html  
ethldt?o?esnoemfetuylm.bnlsssqtann)hcnslararuCpdGeoop?qubdsroaan.arnasdmdor1vrsmer?erlsdacnnnoaexedsidcn.iarsgcyi,iqeqnd.pooitoaeaaransterLet??edasodocMrnseeiuCsimnosetl?jnueodacapsadcoanfasest.rnucaodacadmdoemoip?ogPoipbehaSussai.,yccandin.reueatenaoiorneoeetao?yenimt?rPehec,uurobude?lrysriteenasni,adngpjr?lireecgrolsmhYnao?nmonomepeldezmapcpunoaulrrruCstmeitltetlr?esoapsd?yufcuascaa,rensbuinergnqedlmvlbpdtaz.enebuineuldoerecrGefqfirrasulrbeatHsilnba?aeeaaooassraooa,ioedo:aLiuielPr ursmoootlnieltee?nlosulobeauaanopearr?ieslt?yrosssisuaaeaenremsieaismdjmolrsspebiecd?yusittnvrcacp.taebrtLiunr?porner

e?crneuyraarsettsyrseen.aaPnrneuyraeastuCpnhl/wLloaloa.qartlsyu?nreute.evgdpiu?bdmPooucvdeccmoreurr.o?unriorydbaSnalege?ezadien?utalaaioeemfcbgdinableoc??ppoeocelsumuoaHearsosqadrrrftuLiorannnoneneriiatcnlomoqnaqdunrcno,enmerosaereisloabolii.e.dormerosepopd?,eo:r#5scoegaqoeaibs(edioraamtd?rnlyoetjcgratmnrrobnrsstloeYqoeocicpn?mlpernmaepogenmodqamubodnaeasuaenMoolloupeqvgrLt?r

tsosrdvoeaerroaeusdmaauamoMobsnaeanraunnt,roierbeoiemaodbmantursot?auoureeuoerreopc.etlr

sot?neerLimeaFsNJ


Stripping out HTML tags, we have just the raw code
$ cat takecontrol.txt ethldtíoíesnoemfetuylm.bnlsssqtann)hcnslararuCpdGeoopéqubdsroaan.arnasdmdor1vrsmerñerlsdacnnnoaexedsidcn.iarsgcyi,iqeqnd.pooitoaeaaransterLetéáedasodocMrnseeiuCsimnosetlójnueodacapsadcoanfasest.rnucaodacadmdoemoipíogPoipbehaSussai.,yccandin.reueatenaoiorneoeetaoéyenimt¿rPehec,uurobudeílrysriteenasni,adngpjrálireecgrolsmhYnao?nmonomepeldezmapcpunoaulrrruCstmeitltetlróesoapsdéyufcuascaa,rensbuinergnqedlmvlbpdtaz.enebuineuldoerecrGefqfirrasulrbeatHsilnbaúaeeaaooassraooa,ioedo:aLiuielPr ursmoootlnielteeánlosulobeauaanopearrúiesltéyrosssisuaaeaenremsieaismdjmolrsspebiecdéyusittnvrcacp.taebrtLiunróporner eúcrneuyraarsettsyrseen.aaPnrneuyraeastuCpnhl/wLloaloa.qartlsyuínreute.evgdpiuábdmPooucvdeccmoreurr.o?unriorydbaSnalegeáezadienáutalaaioeemfcbgdinableoc¿éppoeocelsumuoaHearsosqadrrrftuLiorannnoneneriiatcnlomoqnaqdunrcno,enmerosaereisloabolii.e.dormerosepopdé,eo:r#5scoegaqoeaibs(edioraamtdírnlyoetjcgratmnrrobnrsstloeYqoeocicpnómlpernmaepogenmodqamubodnaeasuaenMoolloupeqvgrLtúr tsosrdvoeaerroaeusdmaauamoMobsnaeanraunnt,roierbeoiemaodbmantursotñauoureeuoerreopc.etlr sotñneerLimeaFsNJ 

Take Control

Columnar Transposition Cipher

Using a Columnar Transposition Cipher with the numerical constant of 52413 (from the phone call before the static), the above text can be decoded into Spanish.
$ cat takecontrol.txt ./columnar-decode 52413 Losfelicitoporhaberllegadohastaaquí.Soloqueríasabersiestabanlistos.(Hey,esmuydifícilencontrarbuenaayudaúltimamente...deberíanveralgunosdelospayasitosqueestántrabajandoconmigo)Porahora,continuemosconelverdaderoreto:acabarconLumériCoysupresidenteGuillermoPortero.¿Y porqué?Porqueesunhombrecodicioso,corruptoyunladrónabominable.Suplandetraerenlíneaelmásgrandeyelmáspoderosoziguratel1denoviembrenoesnadamásqueunaartimaña,unelaboradoplandesignadoparaejerceraúnmásinfluenciasobrelagentedeMéxicoyengordarlosbolsillosdesuscompinches.¿Yquiénvaapagarporeso?Lagentecomúnycorriente,losmismosquesiemprequedanolvidados.HeempezadoamejorarmisprotocolosparaqueseanusadosparaderrumbarlainfraestructuradeLumériCoyLosMuertostambiénestánintentandolevantarseencontradelacorrupción.Mientrastanto,escarbenporelsitiodeLumériCoybusqueninformaciónquepodamosusarencontradelcabrón,mejoraún,encuentrensunombredeusuarioycontraseñaparaasegurarnosdequeciertosdetallesnomuyfavorablessobreelpresidentito...aparezcan...PudeencontrarelnombredeusuarioycontraseñadeunempleadodesoportedeLumériCo,empiecenporahí:GFlores/g#fNwP5qJ 
Adding spaces and newlines for legibility we have:
Los felicito por haber llegado hasta aquí. Solo quería saber si estaban listos. (Hey, es muy difícil encontrar buena ayuda últimamente...deberían ver algunos de los payasitos que están trabajando conmigo) Por ahora, continuemos con el verdadero reto: acabar con LumériCo y su president e Guillermo Portero. ¿Y porqué? Porque es un hombre codicioso, corrupto y un ladrón abominable. Su plan de traer en línea el más grande y el más poderoso zigurat el 1 de noviembre no es nada más que una artimaña, un elaborado plan designado para ejercer aún más influencia sobre la gente de México y en gordar los bolsillos de sus compinches. ¿Y quién va a pagar por eso? La gente común y corriente, los mismos que siempre quedan olvidados.
He empezado a mejorar mis protocolos para que sean usados para derrumbar la infraestructura de LumériCo y Los Muertos también están intentando levantarse en contra de la corrupción. Mientras tanto, escarben por el sitio de LumériCo y busquen información que podamos usar en contra del cabrón, mejor aún, encuentren su nombre de usuario y contraseña para asegurarnos de que ciertos detalles no muy favorables sobre el presidentito...aparezcan...
Pude encontrar el nombre de usuario y contraseña de un empleado de soporte de LumériCo, empiecen por ahí:
GFlores/g#fNwP5qJ
Translated
I'm congratulating you for getting in here. I only wanted to know if you were ready or not. (Hey, it's really difficult to get good help lately... you should see some of the clowns I'm working with). For now, let's continue with the true challenge: taking down Lumerico Corp president Guillermo Portero. Why? Because he's a greedy and corrupt man, and an abominable thief. His plan of bringing in line the most powerful and biggest zigurat the 1st of november us nothing more than a deceit, an elaborate plan by his gang to become even more influential in the people of Mexico and get more money. And who's gonna pay for that? Common people, the ones that are always forgotten.
I've started upgrading my protocols so that they are used to take down the Lumerico Corp infraestructure and Los Muertos are also trying to go against the corruption. Meanwhile, search the Lumerico Corp site for info we can use against the bastard, or better, get his username and password so that hundreds "not so favorable" facts about the president start popping up.
I was able to get the username and pass of a Lumerico Corp employee, start here:
GFlores/g#fNwP5qJ

Lumerico Login

This is where it gets fun - we can now login to the Lumerico website using the above username and password! Sombra's turning us into the hackers? Using us as her personal army?
Login page: https://lumerico.mx/login
The username is GFlores and the password is g#fNwP5qJ - it's common practice to separate username and password with a single / character.

Emails

There are a lot of emails to sift through, but the most important one seems to be this one:
De:Valeria Valderrama[email protected] Para:Gonzalo Flores[email protected] Asunto:Página de Guillermo
Hola, Gonzo: ¿Puedes ver el tráfico de https://lumerico.mx/president-bypass? Guillermo debería ser el único accediendo desde su página de inicio privada, pero parece que está teniendo mucho tráfico. Tal vez tengamos que escalar esto a la señorita Jiménez, pero quiero estar segura de que es digno de su tiempo.
Valeria Valderrama
Translated
Hello, Gonzo: Can you see traffic https://lumerico.mx/president-bypass? William should be the only page by pointing your private home, but seems to be having a lot of traffic. We may have to escalate this to Miss Jimenez, but I want to be sure it's worth your time.
Valeria Valderrama
It basically says there is a page for the President to login

President Bypass Source Code Comment

Page: https://lumerico.mx/president-bypass
When trying to load the page we get an Access Denied page (though, funny enough, the site actually returns a 200 OK and not a 403 error as you would expect).
$ curl -sI https://lumerico.mx/president-bypass head -1 HTTP/1.1 200 OK 
Not strictly important - just thought it was worth noting. Looking in the source code there is a very interesting comment:
$ curl -sS https://lumerico.mx/president-bypass grep -o ''  
The /.git/ line is giving is a hint that this president-bypass section of the website is controlled by Git - source code revision control software.

President Bypass Source Code

Hidden Git Repository

Doing web requests for git style files reveals something interesting.
$ curl -sSI https://lumerico.mx/president-bypass/.git head -1 HTTP/1.1 403 Forbidden $ curl -sSI https://lumerico.mx/president-bypass/.git/HEAD head -1 HTTP/1.1 200 OK $ curl -sSI https://lumerico.mx/president-bypass/.git/config head -1 HTTP/1.1 200 OK 
The directory listings on this webserver have been disabled (we get a 403 when hitting ./git directly) but the files inside the repository seem to be accessible if you know the URLs.
NOTE: HEAD and config are common file names for git repositories - I only know this because I've worked with git for source control almost exclusively for the last ~6 years.
GitDumper was used by some on Reddit (can't find original link, sorry!) to pull as many files as they could to rebuild the git repository locally to find any interesting files. I personally could not get gitdumper.sh to work because it made a lot of assumptions about the version of grep installed and how it was compiled.
So instead, I wrote my own program in node based on GitDumper called git-dump to do this. Running it, we can rebuild the repository:
$ npm install -g git-dump $ git dump https://lumerico.mx/president-bypass/.git president-bypass ... $ cd president-bypass $ git log commit 677d90499d571221e2ec71914e56aee35afa9340 Author: pedro  Date: Wed Oct 12 20:09:41 2016 -0400 president auth bypass Signed-off-by: pedro  $ git ls-files class.authentication.php class.president-bypass.php login.php style.css 
The full output is a bit long and can be found here. The 4 files found can also be seen formatted nicely here.
There are a couple things to note
  1. There is only 1 commit so the code was very easy to extract
  2. The file corrupted text seems to have been added manually (on purpose)

PHP code checked in

The code files are in PHP: PHP is a server-side language used commonly for web applications. Because the code is executed on the server, it is impossible for us to know (without the source code) what exactly is happening. However, now that we have the President's encrypted password in class.president-bypass.php:
private $encrypted_password = "?MzY:MTI5:?AzY:OWM?:?EDO:ZGU?:jVTM:MTJm:2ITM:MTUw:?QjY:OWY?:?kTO:MTQx:?MzY"; 
as well as the encrypt function in class.authentication.php:
public function encrypt($password) { $passArray = str_split($password); $encrypted = array(); foreach($passArray as $char) { $salt = count($encrypted); $char = base64_encode(dechex(ord($this->str_rot($char,($salt+3)))*3)); if($salt % 2 == 0) $char = strrev($char); array_push($encrypted, $char); } $encrypted = implode(":", $encrypted); $encrypted = str_replace("=", "?", $encrypted); return $encrypted; } 
We can reverse engineer it and create our own decrypt function to get the President's password!

The President's Password

Using the logic in encrypt(), we can take the President's encrypted password and decrypt it. This line in the code basically has the meat of the encryption function:
$char = base64_encode(dechex(ord($this->str_rot($char,($salt+3)))*3)); 
Indenting it, we get
base64_encode( dechex( ord( $this->str_rot( $char, ($salt + 3) ) ) * 3 ) ); 
Or in pesudo-code
str_rot($char, ($salt + 3) ord(result) dechex(result) base64_encode(result) 

Reverse Engineering the Encryption

To create the program decrypt-password I had to reverse all of the functions used. For example, ord (convert ascii to numerical value) required its compliment chr (convert number to ascii representation), dechex (convert decimal to hex) required its compliment hexdec (convert hex to decimal), base64_encode required base64_decode, and str_rot doesn't have a compliment in code. To reverse a rot-n of a number you just use 26 - n. For example, a rot-2 can be undone with a rot-24.
Writing all of that logic, the command line program can be used to decrypt the password:
$ ./decrypt-password '?MzY:MTI5:?AzY:OWM?:?EDO:ZGU?:jVTM:MTJm:2ITM:MTUw:?QjY:OWY?:?kTO:MTQx:?MzY' [email protected]+Bkuqd<53uJ 
Using the username GPortero (based off the login in the PHP file) and this password, we can login and see the President's emails

The President's Email

After browsing the email for a bit, a new email came in from #Mantenimiento<#[email protected]> which translates to maintenance with the subject Buen Trabajo, or Good Job and signed with a skull image.
Veo que se han podido infiltrar en su correo.
No se preocupen, él no puede ver este correo, lo he ocultado de su vista si se conecta desde una de sus direcciones conocidas de IP.
Necesito un poco más de tiempo para establecer el próximo grupo de potocolos. Manténganse atentos a principios de la otra semana. Le echaré unos cuantos trapitos sucios en sus correos para que se filtren al público "accidentalmente". Ya veremos como reaccionan los medios de comunicación.
Translated
I see you have been able to infiltrate in your mail.
Do not worry, he can not see this email, I've hidden from view if you connect from one of the known IP addresses.
I need a little more time to set the next group of protocols. Stay tuned early next week. I'll take a few dirty rags in their emails to be filtered to the public "accidentally". We'll see how they react to the media.

Conclusion

It looks like we are waiting until next week for anything more!

References

submitted by bahamas10_ to Overwatch [link] [comments]


2016.10.11 15:32 hmillos [Ofrecido] Partner para soporte IT Buenos Aires

Buen día,
Les escribo desde Colombia en donde tengo una empresa de soporte IT a usuarios de hogares y empresas, sin embargo, tenemos un contrato con una multinacional con presencia en Argentina (Buenos Aires, Rosario, Córdoba) para brindar soporte IT en sus oficinas.
Estamos buscando socio o partner en Buenos Aires para atender estos servicios que solicite mi cliente, algunas de las actividades a realizar son las siguientes:
Quisieramos saber si en este sub hay gente que se dedique a dar soporte en este tipo de areas y que esté interesado en apoyarnos con los servicios que solicite nuestro cliente.
El único requisito, aparte del conocimiento y experiencia en estos temas es que se cuente con ART puesto que es un requerimiento para ingresar a algunas locaciones de nuestro cliente.
En caso de estar interesados podrían escribir en este post o por mensaje privado, igualmente tambien pueden contactarnos en h(at)rackbot.co o info(at)rackbot.co. Nuestra página web
submitted by hmillos to empleos_AR [link] [comments]


2016.03.23 00:55 RaulMarti (Serie Robots -II) Inteligencia artificial. ¿PUEDE UN ROBOT SUSTITUIR A UN EJECUTIVO?

(Javier Garcia Ropero)
Los avances en inteligencia artificial empiezan a cambiar la forma en que se toman las decisiones dentro de una empresa. Cada vez se analizan más datos en menos tiempo.
El 15 de marzo de 2016 puede pasar a la historia como una fecha clave para la inteligencia artificial.
Ese día, el ordenador desarrollado por Google, AlphaGo, y el surcoreano Lee Se-Dol, terminaban su serie de cinco partidas al juego del go, una modalidad de gran tradición en Asia y cuya dificultad, dicen, es muy superior a la del ajedrez, incluida para una máquina. El resultado final fue incontestable: AlphaGo venció por 4-1 a su rival humano, siendo la primera vez que un ordenador vence en la historia de este juego.
Un hito que demuestra el nivel de desarrollo que ha alcanzado la inteligencia artificial. Una tecnología que, en el día a día y a un nivel básico, se puede apreciar, por ejemplo, en páginas webs que recomiendan adquirir determinados productos en base a las compras realizadas con anterioridad, y que, más pronto que tarde, llegará a las carreteras en forma de automóviles de conducción autónoma. Sin embargo, su aplicación va más allá.
El aprendizaje automático (machine learning, en su traducción al inglés), es una rama de la inteligencia artificial que permite al ordenador, a través de complejos algoritmos, procesar enormes cantidades de datos, aprender de ellos, y sacar conclusiones como, por ejemplo, predicciones: “Para recomendar contenidos que sean relevantes para la persona, optimizar sistemas logísticos si tienes que encargar productos nuevos, puedes predecir la demanda...
A nivel de industrias, en casi todas se podrá utilizar, si no se está utilizando ya”, afirma Nuria Oliver, directora científica en Telefonica I+D. “Gracias a la existencia del big data, y a una capacidad de computación cada vez más grande, se están produciendo avances muy grandes en el campo de la inteligencia artificial, porque son algoritmos que necesitan datos para aprender, y mucha computación.
Eso ya lo tenemos, y ahora estamos siendos testigos de grandes hitos en este ámbito. Es un área candente”.
Los avances en computación ya permiten analizar e interpretar grandes cantidades de datos en muy poco tiempo
Oliver fue una de las conferenciantes invitadas al congreso Papis Connect, que reunió en Valencia a expertos y profesionales del área de la inteligencia artificial.
Allí, la plataforma PreSeries, participada por Telefónica y Big Ml, presentó una máquina capaz de seleccionar, entre cinco startups, cuál de ellas tiene más posibilidades de éxito y, por tanto, cuál es mejor para recibir inversión.
“Tiene acceso a una cantidad de información que a un humano le resultaría muy difícil procesar”, explica el presidente de PreSeries, Francisco José Martín.
Pero, ¿puede una máquina llegar a tomar decisiones estratégicas, por ejemplo, en una compañía?
“¿Cuántos directivos en España pueden llegar al nivel que puede tener un jugador de go?”, se pregunta Martínez.
“Pocos, seguro. Si un algoritmo puede ganar a un humano en este juego, imagina lo bien que lo pueden hacer tomando decisiones”, continúa el presidente de PreSeries, que acota, eso sí, los campos en los que una máquina puede bastarse en solitario:
“Si la decisión es lanzar una campaña de marketing, o implementar un producto, son cosas que alguien va a tener que definir y trabajar.
Pero asuntos que sean automatizables, como poner un precio, o realizar una orden de compra, son tareas que una máquina puede hacer. Y es muy fácil medir el impacto de sus decisiones”.
Nuria Oliver cree que, “dependiendo de la complejidad de la decisión y del impacto que vaya a tener en el mundo real, tendremos situaciones en que esté totalmente delegada la toma de la decisión a un algoritmo
. Llegará el caso en que los programas tomen las decisiones porque sean cosas que pueden automatizase.”
Sin embargo, apuesta por un sistema híbrido, en el que el algoritmo sea el que analice los datos y presente las conclusiones, y sea el humano el que tenga la última palabra.
Oliver argumenta que, todavía, una persona puede aportar habilidades que una máquina no tiene. “Va a ser cada vez más necesaria una simbiosis entre los algoritmos que nos ayuden a sacar partido y a entender los datos, y los humanos, que podemos incluir una noción de contexto, o factores no numéricos.
En definitiva, que la inteligencia artificial sea un input más en la toma de decisiones”.
Por su parte, el director del Instituto de Investigación en Inteligencia Artificial del CSIC, Ramón López de Mántaras, destaca del aprendizaje automático su utilidad predictiva, que puede ser muy apreciada en sectores como el del retail:
“Las posibilidades son inmensas. Desde el punto de vista empresarial, para maximizar beneficios, hasta predecir pandemias a nivel gubernamental”.
Detalla que, incluso una pequeña empresa podría aplicar esta tecnología, ya que “no tienes que invertir en hardware sofisticado ni casi en software.
Sí en gente que tenga unos conocimientos de inteligencia artificial para explotar todo su potencial”.
Precisamente, respecto al papel humano, López de Mántaras es más contundente: “Cuando sea económicamente y socialmente perjudicial hacer funcionar un software autónomo, no hay que permitirlo. Yo estoy en contra de dar autonomía completa a las máquinas”.
Por ejemplo, en un departamento de recursos humanos. “Se están utilizando programas con los que filtran el 90% de los currículums, y el otro 10% ya los analiza una persona. Creo que es un error enorme porque estás incidiendo en el futuro de personas”.
 Empleos 
El investigador apoya la introducción de estas tecnologías, pero como un elemento más en la toma de decisiones.
“La decisión final tiene que ser la del humano. Si un directivo se limita a hacer caso a la máquina, entonces no es necesario”.
En el trasfondo del debate está el informe que el Foro Económico Mundial publicó el pasado mes de enero.
En él, se calcula que, en los próximos cinco años, se destruirán cerca de cinco millones de empleos en todo el mundo debido al creciente uso, por parte de las empresas, de la inteligencia artificial.
Incluso, entre algunas de las propuestas presentadas en Papis Connect, se incluía la de un subsidio universal, ante la falta de empleos.
Según el Foro Económico Mundial, los avances en inteligencia artificial provocarán la desaparición de cinco millones de empleos hasta 2020
“Hay trabajos para los que no se van a necesitar personas”, explica Francisco José Martín, de PreSeries.
“Para vender pólizas de seguros, quitas cinco puestos de trabajo y tienes un ordenador que va a tomar las decisiones mucho mas rápidas y eficientes.
Los call centers, también van a desaparecer. Es un proceso que poco a poco va a ir creciendo”.
Argumenta que el impacto económico, que van a tener las herramientas de inteligencia artificial para las empresas, hará que estas se inclinen, cada vez más, por adoptarlas, y quedará en el tejado de los gobiernos y los trabajadores decidir qué rumbo tomar. LA MITAD DE LOS PUESTOS DE TRABAJO PUEDE DESAPARECER EN 30 AÑOS, calcula Ramón López de Mántaras, que se pregunta si, como sucedió con la informática, esa destrucción va a hacer que se creen otro tipo de empleos. No es optimista. “La informática creó muchos puestos de trabajo en los últimos 50 años, y antes nadie trabajaba en ello. Es bueno, y está relacionado con el progreso
. Ahora hay sociólogos y economistas que dicen que en esta nueva revolución no está tan claro que vaya a suceder lo mismo.
Todo trabajo en que el contacto humano sea imprescindible, será de los últimos en desaparecer, o aquellos en los que la creatividad humana tenga un papel”.
De ahí, surge otra cuestión a la que todavía hay que dar respuesta: la seguridad. Quién controla a las máquinas
. “Cuanto más relevante sea la función que desempeñe la máquina, más controles habrá que poner para proteger su seguridad. Por ejemplo, poner otra máquina.
Se está produciendo ese momento en el tiempo en que esto es accesible. Y el número de personas que pueden estar inventando algo a la vez, es increíble”, cree Francisco José Martín. “
¿Quién controla al controlador?”, se cuestiona López de Mántaras. “Es un bucle complicado. Hay cuestiones sobre las que no se presta atención, y habrá que hacerlo tarde o temprano”.
EL "GO" ES UN JUEGO DE EXTREMA DIFICULTAD
Lee Se-dol, el mejor jugador de "GO" del mundo, comenzó la partida que le enfentó a la máquina AlphaGo, desarrollada por Google, y que por primera vez en la historia batió a un ser humano en una partida de esta modalidad. reuters / Reuters
“Jugar al GO era uno de los retos de la inteligencia artificial, porque era mucho más complejo que el ajedrez”, afirma Nuria Oliver, directora científica de I+D en Telefónica.
Para comprender lo que supuso la victoria de AlphaGo, desarrollada por Google, al surcoreano Lee Se-Dol, basta decir que la primera vez que un ordenador ganó a un humano al ajedrez fue hace justo 20 años.
Lo hizo Deep Blue, un superordenador creado por IBM que venció a una leyenda de este deporte como el ruso Gary Kasparov.
Se dice que el go es el juego de estrategia más antiguo del mundo. Se desarrolla sobre un tablero que, en el caso de la partida ganada por Alpha Go, tenía unas dimensiones de 19 cuadrados por 19.
El jugador que compite con fichas negras cuenta con 181 piedras y comienza la partida, por las 180 blancas.
El objetivo es que las fichas de un color rodeen en mayor número a las contrarias.
Una partida puede llegar a alcanzar una duración de 90 minutos.
submitted by RaulMarti to podemos [link] [comments]


Cómo extraer datos de páginas web y exportarlas a nuestra propia página (scrapping) Publicar sitio web Wordpress en Windows Azure desde WebMatrix 3 Web Scraping en Python: SCRAPY SPIDER  Web Scraping PARTE 2 Excel 2013 - Como hacer una Web sencilla con Excel Evolución de la Web: de la página web a la aplicación web Curso SEO #7 - Mejores Herramientas de SEO Gratis 2019 [TOP 5] Cómo crear tu propia página web usando HTML : Cómo crear una página web 3. Ingeniería de Software, ¿Cómo se hace software? ¿Qué es BigData y para qué sirve? Tutorial Google Analytics en Español

(PDF) Wikidata y DBpedia: viaje al centro de la web de datos

  1. Cómo extraer datos de páginas web y exportarlas a nuestra propia página (scrapping)
  2. Publicar sitio web Wordpress en Windows Azure desde WebMatrix 3
  3. Web Scraping en Python: SCRAPY SPIDER Web Scraping PARTE 2
  4. Excel 2013 - Como hacer una Web sencilla con Excel
  5. Evolución de la Web: de la página web a la aplicación web
  6. Curso SEO #7 - Mejores Herramientas de SEO Gratis 2019 [TOP 5]
  7. Cómo crear tu propia página web usando HTML : Cómo crear una página web
  8. 3. Ingeniería de Software, ¿Cómo se hace software?
  9. ¿Qué es BigData y para qué sirve?
  10. Tutorial Google Analytics en Español

Curso 'Introducción al desarrollo web': evolución de la Web, desde la página web estática de sólo texto hasta la aplicación web interactiva que sustituye al software que se instala en un ... Excel no es un software de diseño Web, pero si es cierto que podemos hacer algunas cosas interesantes y este vídeo lo deja muy claro ya que en el mismo copiaré la Web de soporteti.net con un ... Una página web es información formateada para la World Wide Web que se ve por medio de un navegador y está escrita en lenguaje HTML. Un experimentado ingeniero en sistemas y desarrollador de ... Extrayendo datos de la Web con SCRAPY y PYTHON. En esta segunda parte del tutorial de Web Scraping en Python vamos a realizar extraer información de UNA SOLA pagina Web utilizando un Spider de la ... En esta cápsula damos una BREVE explicación de los pasos a seguir para desarrollar un producto de software. Desde hablar con un cliente para tener claro el producto que necesita, hasta la ... Top 5 de los programas GRATIS que uso para hacer SEO en este 2019. ¡ABRE PARA DESCUBRIR MÁS! 🚀Curso SEO - Misión: Posicionar en Google: https://pedro-seo... IT & Software 415,356 views. ... Poner Pagina Web en los primeros lugares de Google ... 7 trucos avanzados de Excel que necesitas saber para conseguir trabajo - Duration: ... ¿Alguna vez has tenido que meter miles de datos de golpe en tu web a mano? ¿Qué te parecería coger los datos ya publicados en otra página y trasladarlos a la tuya con unos pocos pasos y ... Os dejamos un vídeo-tutorial para que podáis analizar los datos de vuestra página web. Tratamos los puntos siguientes: - Presentación de la cuenta y de su estructura - Configuración del ... Excel Avanzado para Administración de Empresas 545,699 views 21:42 Cómo Crear Una PÁGINA WEB para NEGOCIO Paso a Paso ︎ Profesional y Seguro ︎ Mejor Tutorial - Duration: 33:26.