Shared posts

29 May 12:06

Los mejores gestores de contenidos gratis para publicar tu web

by Marcos Merino

Los mejores gestores de contenidos gratis para publicar tu web

Hay millones de páginas web en Intenet; en cada caso, difieren el tipo de contenidos, su aspecto, su uso y su gestión interna. Algunas (habitualmente las más antiguas), creadas con HTML 'a palo seco', pero la mayoría utilizan alguna clase de gestor de contenidos web, también conocidos como CMS por sus siglas en inglés (content management system),

Dichos CMS difieren entre sí por su facilidad de uso, el tipo de web para el que están pensados, su precio y si son o no autoinstalables (es decir, si podemos alojarlos en un hosting de nuestra elección). Para la siguiente lista hemos seleccionado únicamente CMS gratuitos y autoinstalables:

Wordpress

Wordpress Área de administración de una web con Wordpress, en la que se anuncia al usuario la integración de Gutenberg.

El Rey de los CMS: Wordpress es el gestor de contenidos más usado en Internet (en torno al 30% de las webs que usan algún tipo de CMS). Es gratis, de código abierto y tremendamente versátil: sirve para blogs personales, para portales corporativos, para foros, para tiendas online, etc, etc.

Además, su curva de aprendizaje es muy suave: te permite empezar rápidamente con una web básica y, a partir de ahí, ir añadiendo funciones y personalizando características.

Su enorme comunidad de usuarios y desarrolladores ofrece, a día de hoy, 3900 temas o plantillas para personalizar su aspecto, y más de 56000 plugins (funciones añadidas); y hablamos únicamente de los temas y plugins gratuitos.

Muchos webmasters critican que Wordpress se ha ido convirtiendo en un CMS más y más pesado a lo largo de los años, fundamentalmente por dos motivos:

  • Por pretender ser un CMS-para-todo (originalmente se centraba en la creación de blogs).

  • Por añadir en la instalación básica el polémico Gutenberg, un maquetador de contenido por bloques muy valorado por otros usuarios (permite hacer 'virguerías' gráficas en pocos segundos).

Hay que diferenciar Wordpress.org, el CMS descargable que podemos instalar en nuestro propio servidor web, de Wordpress.com, el servicio oficial que nos facilita la creación de webs Wordpress con funcionalidades limitadas y alojadas en un servidor ajeno.

Drupal

Drupal Área de administración de una web con Drupal.

Como Wordpress, Drupal es un gestor de contenidos versátil y de código abierto. La comunidad de desarrolladores formada a su alrededor, y que provee a los usuarios de temas y plugins (llamados 'módulos'), tampoco es desdeñable.

Su proceso de instalación y personalización básica es prácticamente tan sencillo como el de Wordpress, pero a partir de ahí su curva de aprendizaje es mayor.

La gran ventaja de Drupal es que es un gestor más ligero que Wordpress, además de tener reputación de tomarse muy en serio la seguridad (muy avanzado en aspectos como los permisos de usuario). También es más flexible en aspectos como los tipos de contenidos y el sistema de taxonomías.

Todo eso, unido a su mejor soporte para sitios multilingües (integrado de serie, no dependiente de plugins) puede convertirlo en una mejor opción para determinados proyectos grandes que no se ajusten al modelos típicos de blog o de web corporativa.

Magento Open Source

Magent Opensource

Magento es uno de los dos gestores de contenido para tiendas electrónicas más usados en Internet junto a Shopify (bueno, y junto a WooComerce, que no es un CMS sino un popular plugin para Wordpress).

Magento Open Source es la versión de código abierto de Magento Commerce, un CMS de pago propiedad de Adobe. Más limitado que este último, cuenta también con plugins y temas para ampliar su funcionalidad.

Permite crear completísimas tiendas online, pero no es una opción para proyectos pequeños ni para webmasters inexpertos. En ese caso Shopify (de pago) o la combinación Wordpress + WooComerce (gratis) serán alternativas mucho mejores.

Grav

Grav

En los últimos años se ha empezado a poner de moda una nueva categoría de CMS super-ligeros, capaces de prescindir incluso del uso de bases de datos, los 'Flat-File CMS'. Dentro de esta encontraremos varias propuestas, como Kirby, Jekyll, Craft, Pico, Bolt (del que ya hablamos aquí)... pero si nos tenemos que quedar con uno, optamos por destacar Grav.

Una vez instalado, Grav permite publicar contenido sencillamente alojando archivos de texto en formato Markdown en una carpeta: ahí se especificará la URL de la publicación, su formato y fecha, y el texto y enlaces de la misma. Esta sencillez no significa que no cuente con cientos de plugins y temas, e incluso con 'esqueletos' (packs de los anteriores conformados según el uso que queramos darle a la web).

En definitiva, un CMS sencillo y ligero, muy recomendable sobre todo para proyectos poco complejos y que no alberguen una gran cantidad de artículos (la caché del sitio se regenera entera tras cada nueva publicación).

TiddlyWiki

Wiki guiatiddlywiki.tiddlyspot.com

Si lo que buscas es crear una web con formato wiki, también existen CMS de código abierto para eso. Una opción para ello sería usar el mismo gestor que usa la Wikipedia (llamado Mediawiki), pero otra mucho más sencilla de gestionar (y también más ligera) es Tiddlywiki.

Se compone de un único archivo HTML (nada de PHP) y de los archivos con el contenido, que podemos guardar gracias al uso de Javascript. Eso nos permitirá prescindir incluso de servidores web: podemos 'instalar' nuestra web incluso en un soporte extraíble, si queremos.

¿Qué clase de webs podemos elaborar con este formato? Pues FAQs (colecciones de preguntas y respuestas), libros electrónicos web, recopilatorios de fichas. Incluso puede ser útil para crear una web en formato blog, como muestra su website oficial.

Imagen | Alpha Stock Images

-
La noticia Los mejores gestores de contenidos gratis para publicar tu web fue publicada originalmente en Genbeta por Marcos Merino .

29 May 11:21

Cómo añadir una Android TV a un grupo de altavoces para que cualquier contenido suene a la vez en toda la casa

by Jose Antonio

Cómo añadir una Android TV a un grupo de altavoces para que cualquier contenido suene a la vez en toda la casa

Google Home cuenta ahora con más posibilidades de las que se pueden beneficiar todos aquellos que tienen en casa distintos dispositivos compatibles con su ecosistema para el hogar conectado. Si hace poco vimos como podíamos crear un sistema estéreo con dos o más altavoces Nest Home, ahora podemos configurar todos los altavoces, Chromecast y televisores con Android TV para que funcionen al unísono.

Los pasos para llegar a este punto son muy sencillos de llevar a cabo y resultan accesibles para todos los usuarios. Sólo necesitas contar con varios dispositivos compatibles con Google Home y entre ellos incluso tiene cabida un televisor con Android TV que tenga la opción de Chromecast incorporada.

 Sonido en toda la casa

Chromecast

Antes era necesario conectar un dispositivo Chromecast al televisor, pero gracias a la actualización para la app Chromecast built-in que ha liberado Google, este paso no es necesario. La actualización es gradual, pero si no quieres esperar puedes acceder a la misma apuntándote al programa de pruebas a través del Play Store en este enlace. Luego debes descargar la app Chromecast built-in en tu televisor y lo ideal es que lo hagas por medio del ordenador, accediendo al enlace y marcando el dispositivo en el que lo deseas instalar.

Tester Copia

Eso sí, no olvides que tras ordenar la instalación e integrarte en el programa de betas, tendrás que reiniciar el televisor o set-top box para que se apliquen los cambios. Una vez cubierto el expediente, estos son los pasos que debes seguir, ya desde el móvil o tableta.

Tester 2 Copia

Para las pruebas he usado un televisor Sony basado en Android TV con Chromecast conectado y varios altavoces Nest Mini. Desde el móvil accedemos a la aplicación Google Home y pulsamos en el botón "+" en la zona superior izquierda en la pantalla. Veremos un desplegable y de todas las opciones vamos a elegir "Crear grupo de altavoces".

La aplicación nos ofrece en la siguiente pantalla todos los altavoces compatibles y conectados que están integrados en la aplicación Google Home. Si en un primer momento no aparecen todos, puedes volver a iniciar el proceso de creación de grupo para que carguen todos los aparatos conectados.

Con todos en pantalla, seleccionamos los dispositivos que queramos que suenen a la vez pulsando sobre cada uno de ellos. Una vez seleccionados, basta con pulsar en "Siguiente", dar un nombre al grupo de altavoces y aceptar.

Uno

El grupo ya está creado y basta con probar cualquier aplicación que permite hacer streaming y que sea compatible con Google Home, para ver, como junto a los dispositivos por separado, ahora aparece el conjunto de altavoces, en este caso lo he llamado "Música total".

Img 2765

Ahora al decirle el Asistente de Google que queremos escuchar música en ese grupo de altavoces, el sonido se escuchará en los altavoces y televisores seleccionados. La reproducción y el volumen será controlada como si fuera un único dispositivo.

 ¿Podemos revertir los cambios?

Chromecast

Llegados a este punto algunos pueden pensar si estos cambios son reversibles y si siempre deberán sonar todos los dispositivos. Y no, no es necesario y de hecho se puede modificar el grupo creado añadiendo, eliminando dispositivos asociados o directamente eliminando el grupo.

Hay dos formas de hacerlo. La primera es accediendo al apartado "Ajustes" de la pantalla principal de Google Home pulsando en la rueda dentada. Veremos un listado con opciones y nos fijamos en el apartado "Habitaciones, grupos y dispositivos", con un apartado, "Grupos de altavoces", que es el que nos interesa.

Al pulsar veremos distintos apartados y nos fijamos en el titulado "Ajustes del dispositivo" donde aparecen listados todos los que están conectados en el grupo. Al final, dos apartados, "Elegir dispositivos" y "Eliminar grupos", dos opciones que permiten modificar cualquiera de los ajustes que antes habíamos establecido.

Cuatro

Otro método pasa por entrar dentro de la pantalla principal y seleccionar alguno de los aparatos conectados. Una vez dentro pulsamos el icono de la rueda dentada en la zona superior para acceder a los "Ajustes" y dentro de los "Ajustes Generales" nos fijamos en el apartado "Grupos".

Tres

Aparece el grupo creado, en este caso "Música total" y podemos, si pulsamos en el mismo, dejarlo activo o inactivo para que no aparezca en las listas para hacer streaming. Lo que no podemos hacer aquí es eliminar o modificar el grupo.

Como curiosidad, a la hora de escuchar música en un televisor con pantalla OLED, esta permanece activa y aunque en el otro televisor con panel LED LCD y con el Chromecast conectado también ocurre igual, hay una diferencia. Y es que largas horas con una imagen en pantalla en paneles OLED puede provocar problemas de quemado, por lo que hay que tener muy en cuenta ese posible problema.

En las pruebas realizadas, mientras que en el modelo con el Chromecast conectado cambiaban las imágenes en pantalla con fondos de Google, en el modelo con Android TV se mostraba la carátula de la canción que se reproduce de forma continuada.

Tres

Chromecast Built-In

-
La noticia Cómo añadir una Android TV a un grupo de altavoces para que cualquier contenido suene a la vez en toda la casa fue publicada originalmente en Xataka Smart Home por Jose Antonio .

29 May 09:31

Con la llegada del teletrabajo me hicieron instalar un programa para vigilar lo que hago con mi portátil

by Javier Lacort

Con la llegada del teletrabajo me hicieron instalar un programa para vigilar lo que hago con mi portátil

En la oficina de Lucas, en una administración pública, el teletrabajo ya era una opción previa a la crisis sanitaria, con topes semanales, pero contemplada. Para esos momentos usaban AnyConnect, una solución de Cisco, de cara a mantener privada la información de la empresa y conectarse de forma segura mediante una VPN. Con el confinamiento, y el paso al teletrabajo como opción principal, pasaron a usar una solución algo más completa, esta vez de Fortinet.

Esta plataforma, además de permitir la conexión vía VPN o tener filtros de seguridad para el equipo, también permite a la empresa capar el acceso a ciertas páginas web -algo habitual desde hace mucho- o monitorizar las direcciones a las que accede cada empleado para prevenir fugas de información o usos indebidos del equipo de trabajo durante el horario laboral. Es solo un ejemplo del esfuerzo que están haciendo muchas empresas para monitorizar al máximo la actividad de sus empleados en remoto ahora que el trabajo ya no se hace en la oficina, y cuya adaptación se tuvo que hacer de la noche a la mañana.

Un script para simular actividad, un despido

En otros casos, este control puede tener una cara B, tanto por parte del empleado como de la propia compañía. Es el caso de la empresa de Miguel (nombre modificado a su petición para guardar su identidad), una financiera con sede en Madrid que hizo que sus empleados se llevaran a casa sus ordenadores justo antes de la instauración del estado de alarma para poder seguir trabajando en remoto, en prevención a lo que venía.

Uno de esos empleados, del departamento informático, tuvo una idea para no trabajar y que pareciese que sí lo hacía: programar un script que escribía borradores en Word y los descartaba, en bucle, para que el software usado por la empresa no detectase la inactividad, y así aprovechar para simular que estaba trabajando aunque ni siquiera estuviese frente al ordenador.

Con lo que no contaba era con que esos portátiles venían preparados para que la empresa pudiese acceder a su escritorio de forma remota. Cuando vieron que su cantidad de reportes era inusualmente baja en proporción a su tiempo de actividad, accedieron al ordenador y vieron el script en marcha. Despedido. En otros casos, la inventiva llega a niveles más básicos:

En Alicante está David (nombre igualmente modificado), trabajador en una empresa dedicada al desarrollo de software. Cuando empezó la crisis sanitaria, todos los trabajadores fueron enviados a casa. La empresa, que trabaja con ordenadores de sobremesa, les pidió que usasen sus ordenadores personales y que instalasen el software necesario para seguir trabajando a distancia.

Si la empresa no puede proveer de equipos a sus empleados para que trabajen desde casa, el control con sus equipos personales se hace mucho más complicado

Primer problema: no todos tenían ordenadores con suficiente potencia como para trabajar en condiciones. Segundo problema: la empresa también instaba a instalar un software concreto, ManicTime, para poder controlar su tiempo de actividad, de inactividad y el detalle de todas las webs visitadas y aplicaciones utilizadas durante la jornada, algo que no era habitual durante la vieja normalidad.

"Cuando nos lo comentaron no nos hizo gracia, pero tampoco sabíamos si podíamos negarnos, lo comentamos algunos internamente y nos enteramos gracias a un abogado de confianza de que sí que podíamos, así que dijimos que no queríamos instalar esa herramienta en nuestros ordenadores personales". La empresa planteó que tanto en esos casos como en los de ordenadores de potencia insuficiente se usasen los equipos personales únicamente para acceder a los de la oficina mediante un escritorio remoto, donde sí iban a instalar el software de control. Y se mataron dos pájaros de un tiro.

Manictime Client Interfaz de ManicTime, que recoge tanto los períodos de uso o inactividad del ordenador como los tiempos de uso de cada aplicación o documento individual.

"Además, siendo un ordenador personal no quedaba claro qué tipo de uso nos podía suponer una sanción", dice David. "Igual tenemos software instalado para uso personal que envía notificaciones durante la jornada, o tenemos que hacer una consulta que equivaldría a la pausa del café en la oficina, pero ahí quedaría registrado todo lo que hiciéramos, no queríamos eso. Con el ordenador de la oficina en remoto nos importa menos, no hacemos nada que no sea trabajar cuando nos conectamos a él".

"Se trata de ser profesional, de que no haya abusos por ninguna de las partes, lo de instalar el software en nuestros ordenadores personales nos pareció un abuso"

En ese caso, cualquier actividad personal que se quiera hacer se puede llevar a cabo simplemente dejando de usar el escritorio virtualizado para pasar a usar el sistema operativo nativo del ordenador. Eso sí, el software de control en cuestión del ordenador del trabajo detectará la inactividad, aunque no debería ser problemático para momentos puntuales, cosa muy distinta a pasar media jornada laboral viendo YouTube.

"Al final se trata de trabajar desde casa de la misma forma que trabajas en la oficina, siendo profesional, nadie nos puede decir nada por parar dos minutos a enviar un mail personal que es necesario, igual que no nos importa quedarnos unos minutos después de la hora de salida para acabar algo pendiente. Se trata de que no haya abusos por ninguna de las partes, y lo de instalar el software en nuestros ordenadores personales nos pareció un abuso y por eso hicimos la consulta legal. La empresa lo respetó y no forzó una situación fea, al final estamos contentos con el resultado", cuenta el alicantino.

Cuestión legal

Joaquín Muñoz, abogado de Ontier experto en derecho digital y nuevas tecnologías, corrobora el procedimiento de la empresa alicantina. Explica que hay que diferenciar la instalación de software pensado para la comunicación en equipo en equipos personales (como Zoom o Microsoft Teams de software específico para controlar la actividad del trabajador, las webs que visita y demás. "En este segundo caso, es necesario el consentimiento expreso del usuario después de que se le haya comunicado todas las características de ese software", cuenta el abogado.

Joaquín Muñoz, abogado

¿Y si el empleado se niega a instalar ese software en su equipo? "No se le podría obligar siempre que esté usando dispositivos de su propiedad. Es la empresa quien tiene que procurar los medios para que el empleado pueda trabajar". Distinta cuestión si le provee del ordenador, en ese caso solo estaría obligada a informarle en detalle de lo que hace el software elegido por la empresa, sin necesidad de obtener el consentimiento expreso.

No obstante, hay tres ámbitos que suele recoger la Agencia Española de Protección de Datos a la hora de determinar si esas prácticas son apropiadas o no: la necesidad (una justificación por el tipo de trabajo que hace ese empleado), la idoneidad (que no haya alternativas menos intrusivas para lograr el mismo resultado) y la proporcionalidad (que el fin a conseguir sea proporcional a la intrusión a la intimidad que se realiza). La empresa ha de ponderar si su propuesta encaja en esos tres ámbitos incluso para cada empleado concreto.

La jurisprudencia en España avala un uso residual incluso de los equipos informáticos de la empresa durante la jornada laboral, para momentos muy puntuales, según explica Joaquín, como enviar un correo personal o hacer una transferencia bancaria. El exceso sí que posibilita la toma de medidas por parte del empresario, que deberá ser proporcional a la infracción cometida.

-
La noticia Con la llegada del teletrabajo me hicieron instalar un programa para vigilar lo que hago con mi portátil fue publicada originalmente en Xataka por Javier Lacort .

28 May 11:49

Cómo publicar una web gratis usando Netlify y Github

by Marcos Merino

Cómo publicar una web gratis usando Netlify y Github

Hace unos años, antes del auge de Wordpress y otros CMS, la mayor parte de las webs eran estáticas: se componían meramente de archivos HTML, CSS y, en algunos casos, de scripts JS... y no requerían de tecnologías como PHP o bases de datos SQL.

Para un internauta de hoy en día, esas webs se perciben como funcionalmente limitadas; y, para un webmaster, podían llegar a ser un infierno a la hora de actualizarlas.

Pero, ¿por qué iba a interesarle al resto de usuarios, que están más que servidos con Wordpress y similares, conocer un servicio de hosting de páginas estáticas (por mucha popularidad que esté cosechando en los últimos tiempos) más allá de funciones educativas o similares?

Fundamentalmente, por dos razones: porque las páginas estáticas, hoy en día, pueden ser mucho más complejas e interesantes que las de hace unos años, y porque el servicio del que vamos a hablar nos permitirá tener un sitio o aplicación web online, de forma gratuita, sin publicidad y fiable. Sin más dilación, veamos qué es Netlify.

Netlify

Si quisiéramos definir Netlify en pocas palabras, diríamos que es un servicio de hosting para sitios web estáticos. Pero es un hosting al que nosotros no subiremos nada, por lo que toca olvidarse de cuentas FTP o similares: el código HTML, Javascript e imágenes estarán alojados en nuestro servicio Git favorito (Github, Gitlab o Bitbucket).

Netlify

A cambio, ofrece toda una serie de características que no encontraremos en otros servicios para sitios estáticos como Firebase o Github Pages:

  • Despliegue continuo: permite vincular nuestro sitio web con un proyecto Git, con el objetivo de poder actualizar automáticamente el primero tras cada actualización que llevemos a cabo en el repositorio.

  • Rollbacks: Si un cambio en el repositorio ha causado algún efecto indeseado en nuestro sitio web, siempre podremos hacer retroceder éste a una versión anterior de sí mismo con un único clic.

  • DNS: permite administrar zonas dentro del dominio netlify.com, así como usar dominios personalizados que hayamos adquirido.

  • HTTPS: disponible de forma automática para todas las zonas gestionadas por Netlify.

  • Split Testing: Nos da la opción de redireccionar un porcentaje configurable de nuestro tráfico web a una 'rama' de prueba de nuestro sitio, con el objetivo de realizar tests A/B.

A excepción de esta última característica (en fase beta), todas las demás opciones están disponibles en el plan 'Starter' de Netlify, totalmente gratuito, por lo que nos ofrece todo lo que necesitamos para poner online nuestra web.

Manos a la obra

Podemos usar nuestra cuenta en Github, Gitlab o Bitbucket para registrarnos e iniciar sesión en Netlify. Tras eso, cuando pretendamos crear desde éste nuestro sitio web, tendremos que dar acceso a Netlify a nuestra cuenta en Github (por ejemplo), y posteriormente se nos pedirá que vinculemos el sitio web a un proyecto concreto ya existente en la misma.

Netlify4

Tras unos cuantos clics (el procedimiento es bastante intuitivo), y habiendo realizado el primer despligue, Netlify nos notificará que tenemos lista y online nuestra web en un subdominio de netlify.com. Sólo tendremos que pulsar el botón de "Domain settings" para hacer que esa URL (algo larga, y poco memorizable) sea sustituida por un dominio de nuestra propiedad.

Web Final Pantalla final del proceso de creación de nuestro sitio web en Netlify (izquierda) y aspecto final del mismo (derecha).

Páginas estáticas... que no lo son tanto

Aunque para la prueba anterior hemos utilizado una web 100% estática (sólo un archivo HTML), lo cierto es que Netlify facilita crear páginas más complejas, en las que el límite entre lo estático y lo dinámico se desdibuja.

En los últimos años han ido apareciendo diversas aplicaciones que permiten generar sitios webs estáticos, pero que recurren a sistemas de gestión de contenidos y plantillas, e incluso a editores WYSIWYG.

Así, recurriendo a esta clase de software, apenas existe diferencia entre crear una web dinámica usando un CMS y optar por una estática, al margen de que esta última no se regenerará cada vez que un usuario la visite (algo parecido, por otra parte, a lo que ocurre con una web Wordpress cuando accedemos a ella a través de un CDN).

Entrar en detalles sobre los mismos excede el objetivo de este artículo, pero si visitáis StaticGen.com, podréis acceder a un listado de los generadores de sitios estáticos más populares (Next.js, Gatsby, Hugo, Jekyll, etc), cada uno con su correspondiente botón de 'Deploy to Netlify'.

Esto, unido a los apartados que la propia documentación de Netlify dedica al uso de los mismos os ayudará a crear sitios con la última tecnología web sin necesidad de gastar absolutamente nada en alojamiento.

-
La noticia Cómo publicar una web gratis usando Netlify y Github fue publicada originalmente en Genbeta por Marcos Merino .

06 May 20:24

Ya fue liberada la nueva versión del sistema de archivos descentralizado IPFS 0.5

by David Naranjo

Se acaba de presentar la nueva versión del sistema de archivos descentralizado IPFS 0.5 (InterPlanetary File System) que forma un almacenamiento de archivos versionado global implementado en forma de una red P2P.

Una característica clave de IPFS es el direccionamiento de contenido, en el que un enlace para acceder a un archivo está directamente relacionado con su contenido (incluye un hash criptográfico del contenido) y que ademas IPFS tiene soporte de versiones incorporado.

La dirección del archivo no se puede renombrar arbitrariamente, solo puede cambiar después de cambiar el contenido. Del mismo modo, es imposible realizar un cambio en el archivo sin cambiar la dirección (la versión anterior permanecerá en la dirección anterior y la nueva estará disponible a través de una dirección diferente, ya que el hash del contenido del archivo cambiará).

¿Qué hay de nuevo en IPFS 0.5 ?

En la nueva versión se mejoró significativamente el rendimiento y un funcionamiento, pues se demostró en una red pública basada en IPFS que se superó los 100,000 nodos y los cambios en IPFS 0.5 reflejan la adaptación del protocolo para trabajar en tales condiciones.

La optimización se centró principalmente en mejorar los mecanismos de enrutamiento de contenido responsables de la búsqueda, el anuncio y la recuperación de datos, así como en mejorar la eficiencia de la implementación de una tabla hash distribuida (DHT), que proporciona información sobre los nodos que tienen los datos requeridos. El código relacionado con DHT se reescribió casi por completo, lo que aceleró significativamente la búsqueda de contenido y las operaciones de definición de registros IPNS.

En particular, la velocidad de las operaciones de agregar datos ha aumentado en 2 veces, el anuncio de nuevo contenido en la red en 2.5 veces, la extracción de datos de 2 a 5 veces y la búsqueda de contenido de 2 a 6 veces.

Los mecanismos rediseñados para el enrutamiento y el envío de anuncios permitieron acelerar la red 2-3 veces debido al uso más eficiente del ancho de banda y la transferencia de tráfico en segundo plano. En el próximo número, está previsto introducir el transporte basado en el protocolo QUIC, que logrará ganancias de productividad aún mayores debido a retrasos reducidos.

Se ha acelerado el trabajo y la confiabilidad del sistema IPNS (Sistema de nombres interplanetarios), utilizado para crear enlaces permanentes ha contenido cambiante. El nuevo transporte experimental de pubsub hizo posible acelerar la entrega de registros IPNS entre 30 y 40 veces al realizar pruebas en una red con mil nodos (se desarrolló un simulador de red P2P especial para experimentos).

El rendimiento de la capa Badger utilizada para interactuar con el sistema operativo FS se duplica  y con soporte para operaciones de escritura asincrónicas, Badger ahora es 25 veces más rápido que la antigua capa flatfs. Las mejoras de rendimiento también afectaron el mecanismo Bitswap , que se utiliza para transferir archivos entre nodos.

De las mejoras funcionales:

  • TLS se utiliza para cifrar conexiones entre clientes y servidores.
  • Ha aparecido la compatibilidad con subdominios en la puerta de enlace HTTP: los desarrolladores pueden colocar aplicaciones descentralizadas (dapps) y contenido web en subdominios aislados que se pueden usar con direcciones hash, IPNS, DNSLink, ENS, etc.
  • Se ha agregado un nuevo espacio de nombres/p2p al que se han extraído los datos relacionados con las direcciones de pares
  • Se agregó soporte de enlace “.eth” basado en blockchain, que ampliará el uso de IPFS en aplicaciones distribuidas.
  • La startup de protocolo compatible con IPFS Protocol Labs también está desarrollando el proyecto FileCoin, que es un complemento para IPFS. Si IPFS permite a los participantes almacenar, solicitar y transferir datos entre ellos
  • Filecoin se está desarrollando como una plataforma basada en tecnologías blockchain para el almacenamiento permanente
  • Filecoin permite a los usuarios que tienen espacio en disco no utilizado proporcionar sus redes por una tarifa, y los usuarios que necesitan almacenamiento para comprarlo. Si la necesidad de un lugar ha desaparecido, el usuario puede venderlo. De esta manera, se forma un mercado para el espacio de almacenamiento, cuyos cálculos se realizan en tokens Filecoin formados por la minería.

Si quieres conocer más al respecto sobre este sistema de archivos, puedes consultar los detalles en el siguiente enlace.

06 May 20:23

Borg Backup: Un buen sistema de gestión de copias de seguridad

by Linux Post Install
Borg Backup: Un buen sistema de gestión de copias de seguridad

Borg Backup: Un buen sistema de gestión de copias de seguridad

Todo usuario, sea uno común, avanzado o técnico, debe procurar mantener sus Sistemas Operativos, no solo actualizados, sino también protegidos contra amenazas informáticas e incidentes informáticos, tales como, virus, intrusiones no autorizadas, daños en hardware y perdida parcial o total de data, en medios de almacenamientos.

Para este último problema mencionado, existen muchas herramientas de software (programas/aplicaciones) disponibles para nuestros Sistemas Operativos libres y abiertos, basados en GNU/Linux. Y uno de ellos, llamado Borg Backup, es un buen sistema de gestión de copias de seguridad.

Borg Backup: Introducción

Sobre todo, el tema de los respaldos o copias de seguridad, o cualquier otro mecanismo para “Resetear, reajustar, restaurar o simplemente volver a un estado inicial o predeterminado nuestras Distros GNU/Linux” incluyendo la información (personal o laboral) almacenada, suele ser un punto importantísimo para los apasionados usuario de GNU/Linux, ya que por lo general, están constantemente probando configuraciones o aplicaciones nuevas, y otros más aguerridos, nuevas Distros GNU/Linux de forma periódica.

Publicaciones relacionadas

Razón por la cual, en el Blog DesdeLinux hemos realizados con anterioridad, otras publicaciones relacionadas con dicha temática que recomendamos buscar y leer. Una pequeña muestra de algunas de ellas son las siguientes:

Otras aplicaciones interesantes y útiles, que valen la pena mencionar son: Deja Dup, Rsync, y Aptik.

Nota importante sobre los Respaldos

Al hacer tareas o actividades de respaldo, para proteger nuestra información (data) y Sistema Operativos, las buenas prácticas sobre dicho tema, suelen entre muchas otras, hacer énfasis en una regla conocida como “3-2-1″, debido a que establece los siguiente principios a cumplir:

  • Poseer al menos tres (3) copias de seguridad de todo lo respaldado.
  • Guardar al menos dos (2) copias de seguridad en ubicaciones internas distintas.
  • Proteger al menos una (1) de las copias de seguridad en una ubicación externa.

Borg Backup: Contenido

Borg Backup: Sistema de gestión de copias de seguridad

¿Qué es Borg Backup?

Borg Backup, según sus desarrolladores en su página web oficial, es:

Un programa de respaldo de deduplicación. Opcionalmente, soporta compresión y encriptación autenticada. Cuyo objetivo principal es proporcionar una forma eficiente y segura de hacer copias de seguridad de los datos. La técnica de deduplicación de datos utilizada hace que Borg sea adecuado para las copias de seguridad diarias, ya que solo se almacenan los cambios. La técnica de encriptación autenticada hace que sea adecuado para hacer copias de seguridad a objetivos no totalmente confiables.

Características y Novedades

Características principales

  • Almacenamiento eficiente del espacio en disco: Realiza una deduplicación basada en un “chunking” definido por el contenido que se utiliza para reducir el número de bytes almacenados: donde cada archivo se divide en un número de chunks de longitud variable y solo se añaden al repositorio los chunks que nunca se han visto antes.
  • Velocidad: Posee un excelente rendimiento gracias a que su código de rendimiento crítico está implementado en C/Cython, realiza un almacenamiento en caché local de los archivos/datos, y ejecuta una eficiente detección de archivos no modificados.
  • Encriptación de datos: Permite proteger todos los datos usando una encriptación AES de 256 bits, mientras la integridad y autenticidad de los datos se verifican usando HMAC-SHA256. Y los datos son encriptados en el lado del cliente.
  • Compresión: Facilita de forma opcional la compresión de todos los datos, en los siguientes formatos: lz4 (super rápido, baja compresión), zstd (amplio rango desde alta velocidad y baja compresión hasta alta compresión y baja velocidad), zlib (velocidad y compresión medias), y lzma (baja velocidad, alta compresión).
  • Copias de seguridad externas: Permite almacenar datos en cualquier host remoto accesible a través de SSH. Además, permite que las copias de seguridad se puedan montar como sistemas de archivos.
  • Fácil instalación en múltiples plataformas: Ofrece binarios (instaladores) que no requieren ser instalados, solo ejecutados y usados, en estas plataformas: Linux, Mac OS X, FreeBSD, entre otros, como el Subsistema Linux de Windows 10 (En forma experimental).
  • Software libre y de código abierto: Está licenciado bajo la licencia BSD (cláusula 3).

Novedades

Actualmente va por la versión número 1.1.1, que trae entre muchas novedades las siguientes:

  • Incluye mejoras en el proceso de migración de Borg 1.0.x a 1.1.x
  • Elimina la autodetección de WSL (Subsistema de Windows 10 para Linux).
  • Posee actualizado el paquete lz4 a la versión 1.9.2 y el paquete de zstd a la versión 1.4.4
  • Agrega soporte para plataformas sin os.link (por ejemplo, Android con Termux)
  • Agrega soporte para plataformas Linux sin sync_file_range.

Otros datos importantes

Para Borg Backup, que es un programa de Terminal (CLI) se han creado Interfaces gráficas (GUI) para un mejor uso. Entre estas tenemos a:

Para mayor información sobre Borgweb y Vorta se puede visitar sus respectivos sitio de GitHub. Sin embargo, BorgWeb posee un repositorio alternativo y otro sitio web relevante que pronto ofrecerá mucha información sobre el mismo.

¿Qué es la Deduplicación?

Es una técnica de respaldo que elimina los datos redundantes almacenados, guardando una única copia idéntica de los datos, y reemplazando las copias redundantes por indicadores que apuntan a esa única copia. Por ende, está técnica guarda solo una vez el archivo y reemplaza las demás por un enlace a dicho archivo, o un indicador que apunta a esta única copia. Este sistema consigue ahorrar espacio ocupado por las copias de seguridad, lo que mejora el uso del espacio y los costes relacionados con dichos medios, además de facilitar la recuperación de los datos con mayor rapidez desde la copia (respaldo).

Imagen generica para conclusiones de artículos

Conclusión

Esperamos que esta “pequeña y útil publicación” sobre  «Borg Backup», un buen sistema de gestión de copias de seguridad libre y abierto, muy versátil y eficiente; sea de mucho interés y utilidad, para toda la «Comunidad de Software Libre y Código Abierto» y de gran contribución a la difusión del maravilloso, gigantesco y creciente ecosistema de aplicaciones de «GNU/Linux».

Y para mayor información, no dudes siempre en visitar cualquier Biblioteca en línea como OpenLibra y JedIT para leer libros (PDFs) sobre este tema u otras áreas del conocimiento. Por ahora, si te ha gustado esta «publicación», no dejes de compartirla con otros, en tus sitios web, canales, grupos o comunidades favoritas de redes sociales, preferiblemente libres y abiertas como Mastodon, o seguras y privadas como Telegram.

O simplemente, visita nuestra página de inicio en DesdeLinux o únete al Canal oficial de Telegram de DesdeLinux para leer y votar por esta u otras interesantes publicaciones sobre «Software Libre», «Código Abierto», «GNU/Linux» y demás temas relacionados con la «Informática y la Computación», y la «Actualidad tecnológica».

06 May 20:13

Sodinokibi: prevención, identificación y respuesta

by INCIBE

Sodinokibi

Sodinokibi utiliza el modelo de RaaS (Ramsonware as a Service), lo cual favorece su rápida propagación. En este artículo se presentan algunas líneas de actuación que deben seguirse en el caso de haber sido víctima de este sofisticado malware o si se sospecha que podría haber infectado nuestros sistemas.

En nuestro anterior blog hablamos del ransomware Sodinokibi y de su funcionamiento. En él veíamos que el modelo de RaaS (Ramsonware as a Service) planteaba un escenario muy favorable para el incremento del número de estas amenazas y su rápida propagación, ya que pone este servicio al alcance de todo aquel que esté dispuesto a pagar él, sin necesidad de conocimientos técnicos.

Si a esto le sumamos la sofisticación, complejidad y posibilidad de establecer persistencia de este ransomware, es necesario dar a conocer algunas líneas de actuación que deben seguirse en el caso de haber sido víctima de este.

Prevención

La mejor protección frente a este tipo de código malicioso es la prevención, ya que solamente siguiendo las recomendaciones y buenas prácticas, conseguiremos evitar vernos afectados o, en el peor de los casos, paliar los efectos adversos y las consecuencias tras un ataque exitoso contra nuestros sistemas. Algunos de los más importantes son:

  • Hacer copias de seguridad frecuentemente y mantenerlas en soportes desconectados (backup offline), como pueden ser discos duros extraíbles. De esta forma, la información se puede mantener fuera del alcance de la posible infección. Debemos recordar que una de las primeras misiones del ransomware es dificultar la posible recuperación de datos.
  • Mantener actualizados el sistema operativo y las aplicaciones. Aplicar de manera regular los parches y actualizaciones que los fabricantes de sistemas operativos y programas publican periódicamente para corregir las posibles vulnerabilidades que aprovecha el software malicioso para propagarse y ejecutarse sobre equipos desactualizados.
  • Mantener el software antivirus siempre en ejecución y actualizado. Los antivirus están diseñados para detener la mayoría de las acciones que los códigos maliciosos puedan intentar. Para que la protección sea efectiva, es necesario mantener las firmas actualizadas.
  • Mínimos privilegios. Evitar utilizar los equipos con cuentas con privilegios de administrador. Asignar a las personas usuarias de los mismos cuentas con los permisos mínimos necesarios para operar los programas y llevar a cabo su actividad. De esta forma, si el código malicioso llega a ejecutarse quedarán limitados a los posibles cambios y acciones que intente llevar a cabo sobre el equipo infectado. Como se ha comentado, el éxito de Sodinokibi reside en las posibilidades de escalada de privilegios que pueda obtener en el equipo infectado. Gran parte de las amenazas contra sistemas Windows se pueden prevenir utilizando credenciales no privilegiadas.
  • Mínima exposición. Limitar la exposición al exterior de la red interna de la empresa, o de aquella información o servicio que no necesita ser accesible desde el exterior. Conviene desplegar soluciones de firewall (cortafuegos), para delimitar el perímetro interno y externo de la red, y configurarlo correctamente para permitir el acceso exclusivo de las aplicaciones y servicios necesarios.
  • Instalación de aplicaciones específicas de seguridad. Despliegue de aplicaciones específicas que permitan  reducir el riesgo de infección, como pueden ser filtros antispam, ya que el correo malicioso es el principal vector de propagación de este ransomware. También existen programas de bloqueo de cierto tipo de código, como Javascript, para evitar la ejecución de código no autorizado al visitar páginas web o abrir documentos maliciosos.
  • Segregación de redes. Segmentación de los equipos de usuario y servidores en distintas subredes para limitar la propagación de los incidentes. La separación de subredes debe hacerse por medio de cortafuegos (firewall) con reglas de filtrado de tráfico.
  • Concienciación: Las personas que utilizan dispositivos, domésticos o corporativos, deben concienciarse del riesgo que supone el acceso a sitios sospechosos o el intercambio de archivos de dudosa procedencia, así como tener pautas claras para identificar mensajes de correo electrónico que alberguen contenido malicioso o referencias a sitios que pudiera contenerlos.

En el entorno corporativo, además, es especialmente recomendable seguir las siguientes pautas de preparación adicionales:

  • Mantener actualizadas las políticas y procedimientos. Especialmente aquellos  relativos a copias de seguridad, gestión de incidentes, recogida de evidencias y recuperación de sistemas.
  • Crear y preparar un equipo técnico capaz de dar una  eficaz respuesta a incidentes de seguridad de estas características.
  • Disponer de información actualizada de contacto, tanto de los miembros  del equipo de respuesta, del personal interno, así como otros técnicos de  asistencia externa, que se pueden ver implicados en la gestión del ciberincidente.
  • Realizar simulaciones de incidentes de este tipo a fin de entrenar capacidades y validar los procedimientos técnicos, operativos, de gestión y coordinación del equipo técnico de respuesta a incidentes de seguridad.
  • Elaborar un análisis de riesgos que recoja esta amenaza e incluir su gestión en el plan de tratamiento para posibilitar su mitigación.

Identificación

La rápida identificación del ransomware es crucial para dar una respuesta eficaz a la infección. Ya hemos visto las diversas funciones que posee para dificultar su detección por parte de antivirus y otros tipos de software de seguridad, como los sistemas de detección de intrusiones (IDS), por lo que será el propio usuario quien deba identificar cualquier comportamiento sospechoso.

Algunos de los síntomas que podrían revelar la infección de un equipo por Sodinokibi son los siguientes:

  • Modificación del fondo de escritorio.
  • Mensajes intimidatorios para la persona que opera el equipo o solicitud de pagos para recuperar información.
  • Conexiones de red entrantes y salientes por puertos y protocolos comúnmente no utilizados.
  • Bajo rendimiento en el funcionamiento del equipo.
  • Funcionalidades deshabilitadas del sistema operativo o de programas.
  • Lentitud al navegar por Internet o durante la descarga de archivos.
  • Alertas de seguridad por parte del sistema operativo o de las soluciones antivirus.

mensaje en castellano

- Nota de rescate traducida al castellano. Fuente: Geek`s advice -

Respuesta

Ante la sospecha de estar infectado por Sodinokibi o por cualquier otro ransomware, es muy importante actuar rápidamente. Si por cualquier circunstancia se produce la infección de uno o varios equipos, los procedimientos de respuesta que se lleven a cabo podrán limitar los efectos del incidente y reanudar la actividad con rapidez.

Una vez detectado el incidente tras verificar que se trata de un ataque por ransomware, el procedimiento de respuesta que se recomienda llevar a cabo es el que recogen las fases de contención, mitigación, recuperación y postincidente. A continuación se detallan cada una de ellas.

Contención

La primera medida está orientada a evitar que el ransomware se propague a otros sistemas, es decir, a reducir el alcance y detener la propagación.

  • Aislar el dispositivo infectado. Una vez que se detecta que el ransomware ha infectado un equipo, este puede propagarse a otros, por lo que el tiempo de reacción es crucial. Es esencial desconectar el dispositivo infectado de la red, Internet y resto de dispositivos lo más rápido posible.
  • Detener su propagación. El código malicioso se difunde rápidamente, y el equipo en el que se ha localizado el ransomware no es necesariamente el punto de acceso inicial del mismo, por lo tanto el aislamiento inmediato de un equipo infectado no garantiza que no esté presente en otros dispositivos de la red. Para limitar el alcance de su propagación de manera efectiva, se deben desconectar de la red todos aquellos dispositivos sospechosos de ser el punto de entrada del malware, y aquellos en los que se produzca un comportamiento sospechoso o anómalo.
  • Evaluar los daños. Para determinar qué dispositivos han sido infectados, se deben verificar los archivos que se han creado o renombrado recientemente, aquellos con nombres de extensión de archivo extraños, nombres de archivos extraños o usuarios que tengan problemas para abrir archivos. En este punto, el objetivo es crear una lista completa de todos los sistemas afectados, incluidos dispositivos de almacenamiento en red.
  • Localizar el origen de la infección. Para localizar el origen, es necesario verificar si hay alertas que provengan del antivirus, sistema de detección de intrusiones (IDS) o cualquier plataforma de monitorización activa. Revisar los recursos de archivos compartidos que hayan podido ser cifrados también puede proporcionar información valiosa para tratar de localizar el equipo origen de la infección. Como la mayoría del ransomware se introduce en los sistemas a través del correo electrónico, en mensajes con enlaces y archivos adjuntos, que requieren una acción de la persona que lo recibe, también es posible preguntar a las personas que operan los equipos sobre su actividad reciente al respecto.
  • Identificar el ransomware. Es importante identificar la variante de ransomware que ha provocado el ataque para su mitigación y confirmar que se trata de Sodinokibi. La primera comprobación es usar la información incluida en la propia nota de rescate. Si no se identifica la variante, se puede recurrir a un motor convencional de búsqueda en Internet para recabar información sobre datos que aparecen en la nota de rescate, como pueden ser las direcciones de correo electrónico o de la página web de referencia. También se pueden consultar páginas específicas especializadas en la identificación de ransomware como puede ser la iniciativa de Europol No More Ransom, en la que colaboran múltiples fabricantes de antivirus:  https://www.nomoreransom.org/.

    Otra opción es consultar con el fabricante o distribuidor del software antivirus instalado, ya que estas entidades habitualmente ponen a disposición de sus clientes y público en general información e incluso herramientas que permiten la identificación del mismo.
    Además desde INCIBE-CERT se proporciona soporte en la identificación de ransomware en los incidentes gestionados.

Mitigación

Una vez identificada la variante de ransomware como Sodinokibi, el siguiente paso será erradicar la infección. Este ransomware crea varias entradas de registro, guarda ficheros ocultos e incluso es capaz de realizar otro tipo de acciones como deshabilitar ciertos servicios. Dependiendo de la configuración del equipo, en muchas ocasiones lo más rápido y seguro es reinstalar el sistema operativo.

Otra opción es  contactar con el fabricante o distribuidor del software antivirus para que nos indiquen las instrucciones a seguir, o ponerse en contacto con su CERT de referencia para recibir asistencia.

Recuperación

Para restablecer el sistema y recuperar los archivos secuestrados por Sodinokibi, no debería de plantearse como opción el pago del rescate exigido por quien perpetra el secuestro, ya que no hay garantías de recuperar la información tras el pago, y además se fomentan este tipo de delitos.

Antes de proceder a reinstalar el sistema siempre es recomendable realizar una copia completa del disco con la información cifrada para que, en caso de que en un futuro se localice una solución de descifrado gratuita, tener la posibilidad de recuperar los datos a partir de la copia cifrada.

Es el momento de evaluar las copias de seguridad disponibles y comenzar el proceso de recuperación. El método más rápido y fácil de hacerlo, es restituir los equipos e información, una vez erradicado el código malicioso, reinstalando tanto sistemas operativos como otro software y restaurando los datos desde la copia de seguridad no afectada más reciente.

Post-incidente

Una vez que el sistema se ha restituido y se verifica que no hay rastro del ransomware, se debe proceder al análisis de las causas que lo han provocado, identificar las vulnerabilidades que lo han posibilitado y definir un plan de acción que permita reforzar las debilidades del sistema, normalmente incrementando los controles de seguridad técnicos, introduciendo cambios en la topología y arquitectura de red, así como reforzando los planes de formación y concienciación de las personas. Todo ello con la intención de aprender de los errores y de que estos no vuelvan a repetirse.

Conclusiones

La mejor estrategia a la hora de defenderse de los ataques es estar preparados para su llegada. Una buena anticipación ayudará favorablemente a evitar que estos nos afecten de forma efectiva y saber cómo actuar en caso de que, desafortunadamente, no hayan podido evitarse.

Para ello, además de implementar todas las medidas técnicas que se encuentren a nuestro alcance, será necesario que los usuarios conozcan las recomendaciones y buenas prácticas para un uso seguro y responsable de los sistemas, siempre con sentido común.

Es reseñable que los grupos que hacen uso de Sodinokibi están modificando su comportamiento, realizando previamente al cifrado de datos una exfiltración masiva de información de los sistemas comprometidos. Los datos robados son utilizados para extorsionar al afectado a cambio de evitar la divulgación parcial o total de los mismos, ya que con esto se dará a conocer públicamente el incidente de seguridad sufrido. La información robada además de usarse como prueba pública del incidente puede ser usada para su comercialización al incluir datos confidenciales internos y en ocasiones de clientes o proveedores.

Etiquetas: Amenazas, Cibercrimen, Continuidad, Criptografía, Malware, Windows

06 May 19:53

Raspberry Pi Zero para "Makers": 6 PoCs & Hacks Just for Fun (2 de 3) #RaspberryPi

by noreply@blogger.com (Chema Alonso)
En esta segunda parte de la serie "Raspberry Pi Zero para "Makers": 6 PoCs & Hacks Just for Fun" os vamos a proponer dos proyectos para tener en casa. El primero de ellos un proyectos para poder visualizar vídeos, películas o presentaciones en cualquier pared o pantalla de proyección que tengáis en casa, y el segundo una alarma de seguridad.

Figura 12: Raspberry Pi Zero para "Makers": 6 PoCs & Hacks Just for Fun (2 de 3)

Como veréis no son complicados ni caros, pero hay que tener algo de espíritu "Maker", así que prepara las herramientas y elige tu proyecto. Vamos con estos dos de hoy. Pero recuerda que en la primera parte tienes:
1.- Pi Zero Drone 
2.- Zero Phone
Si nunca has hecho ningún proyecto con Raspberry Pi Zero, tal vez sea bueno que te hagas con tu Kit de iniciación para que puedas empezar hoy mismo.

Figura 13: RaspberryPi Zero W Kit de inicio

3.- PiProjector: Proyector de bolsillo

Por lo general estos dispositivos, aunque son muy versátiles, pueden resultar bastante caros, lo que hace que su adquisición con propósitos de entretenimiento no merezca tanto la pena. Por suerte para nosotros un creador de contenido para YouTube conocido como MickMake ha desarrollado una PCB con a que transformar nuestras Raspberry Pi en proyectores de bolsillo.

Figura 14: Documentación de PiProjector

Puede que no esté a la altura de los "picoproyectores" de alta gama ya que su máxima resolución es de 854x480 pero aun así debido a su bajo precio - aproximadamente 90 € - resulta una alternativa ideal para cualquier usuario promedio. Su funcionamiento es bastante sencillo, se emite un haz de luz utilizando un Diodo LED, este haz atraviesa unos filtros hasta llegar a un DMD (Digital Mirror Device) que es el encargado de proyectar la imagen en la pared, pantalla o superficie que queramos utilizar.

Figura 15: PiProjector en funcionamiento

Su mayor ventaja a parte de su portabilidad es su bajo consumo de energía lo que permite alimentarlo con una batería portátil. Para realizar el montaje son necesarios los siguientes componentes:
+ Raspberry Pi Zero W 
+ Placa DMD, en este caso el modelo DLP2000EVM 
+ Placa PCB diseñada por MickMake 
+dos conectores hembra de 23 pines 
+un conector macho de Raspberry Pi
+Un cable de puente para alimentar a 5v la placa DMD
A la hora de realizar el montaje la única dificultad se encuentra en saber soldar utilizando estaño, en la página web de MickMake podéis encontrar un tutorial con distintos métodos para montar el picoproyector ya que podremos elegir si queremos colocar nuestra Raspberry Pi Zero encima o debajo de la placa DMD.

Figura 16: Aspecto final de PiProjector

Una vez tengamos nuestro montaje hecho el siguiente paso es configurar la Raspberry Pi Zero para que funcione como un proyector para ello solo tendréis que iniciar la Raspberry Pi Zero y editar dos archivos con el código que encontrareis en la página anteriormente mencionada.


Figura 17: Cómo montar un PiProjector
Hecho esto solo falta alimentar nuestro proyector, para ello tenemos dos opciones, la primera de ellas es utilizar el puerto de corriente de la placa DMD o utilizar una batería portátil y alimentarlo directamente a través del puerto MicroUSB de la Raspberry Pi Zero. En cuanto a el audio es importante saber que no contamos con un jack de 3.5 así que habrá que buscar otras alternativas cómo utilizar un módulo Bluetooth.

4.- Alarma doméstica

El segundo de los proyectos de los que os hablaremos hoy es la construcción de vuestro propio sistema de alarma doméstica a medida usando un proyecto basado en Raspberry Pi Zero, y podrás implementar una pantalla para controlar el sistema, además de numerosos sensores, incluso una cámara de vigilancia o altavoces para hacer sonar la alarma.

Figura 18: Alarma basada en Raspberry Pi Zero

Es posible que la inversión inicial supere las primeras cuotas de algunos de estos servicios, sin embargo una vez que tengamos todo montado y funcionando no tendremos que preocuparnos de pagar una mensualidad. A continuación os explicaremos cómo montar la versión más básica de este proyecto, con un precio inferior a los 100 euros y que contara con una pantalla táctil y un sensor de movimiento. Lo primero será reunir los materiales necesarios, en este caso son los siguientes:
Raspberry Pi Zero W 
- Tarjeta micro SD 
Pantalla táctil Adafruit PiTFT de 3,5” 
-Sensor de movimiento PIR genérico 
En este caso el montaje es de lo más sencillo solo tenemos que utilizar los conectores para pantalla de la Raspberry Pi Zero, es recomendable utilizar un “extensor” para poder manipular la Raspberry Pi Zero sin problemas en un futuro. En cuanto al sensor solo habrá que alimentarlo utilizando algunos de los pines que no hayamos utilizado en la parte trasera de la pantalla, tendremos que localizar uno que esté a 5 voltios, uno con toma a tierra y uno de salida de la GPIO que este libre (por ejemplo el pin 23).

En cuanto al software utilizaremos la aplicación Home Assistant, esta app Open Source y es posiblemente una de las mejores opciones para la creación de un hogar con domótica por ti mismo ya que permite la implementación de gran variedad de sensores y dispositivos con los que activar nuestra alarma y enviarnos una notificación a nuestro móvil.


Figura 19: Guía de iniciación a Home Assistant

Otra gran ventaja es que si no incluimos ningún zumbador o sirena nuestra alarma funcionará como una alarma silenciosa sin alertar a los intrusos y nos permitirá avisar rápidamente a la policía. Si por otro lado buscas un efecto más disuasorio solo tienes que conectar un zumbador. El único inconveniente que tiene la opción de recibir las notificaciones en nuestro dispositivo es que la única forma de armar o desarmar la alarma es a través del interfaz web.

Cuando nació este proyecto no existía ninguna API que nos permitiese utilizar los comandos de armado y desarmado de forma manual y enviase una alerta con cualquier cambio de estado. Por eso mismo Colin O´Dell, la mente detrás de este interesante proyecto, desarrolló su propia API basada en MQTT que es capaz de funcionar como una alarma convencional y nos permitirá comunicarnos de manera bidireccional con nuestra alarma utilizando un teclado remoto, solo será necesario tener acceso a Internet.

Figura 20: Web del proyecto de Pi Alarm

En la página web del proyecto, Colin explica detalladamente como realizar todo el proceso de instalación y configuración del software en la Raspberry Pi Zero, además podréis encontrar todo el software necesario en su página de GitHub. En cuanto a la alimentación es posible alimentar el sistema con una batería portátil, sin embargo es recomendable conectar nuestra alarma a la red eléctrica, para ello debemos utilizar un transformador como el que utilizamos para cargar nuestros smartphones .


Figura 21: Demo de Pi Alarm
Para terminar con el montaje necesitaremos una carcasa para proteger nuestro montaje, al igual que en algunos de los proyectos que os hemos expuesto previamente la impresión 3D nos ofrece una solución sencilla y económica para esta cuestión, pero si no dispones de una impresora 3D también podrás diseñar y crear tu carcasa utilizando cualquier tipo de material como madera o placas de aluminio o materiales acrílicos.

Autor: Sergio Sancho Azcoitia

***********************************************************************************
Raspberry Pi Zero para "Makers": 6 PoCs & Hacks Just for Fun (1 de 3)
Raspberry Pi Zero para "Makers": 6 PoCs & Hacks Just for Fun (2 de 3)
Raspberry Pi Zero para "Makers": 6 PoCs & Hacks Just for Fun (3 de 3)
***********************************************************************************
06 May 18:09

Una filtración desvela el código fuente de Wii, GameCube y Nintendo 64

Una filtración desvela el código fuente de Wii, GameCube y Nintendo 64


Hace un par de semanas aparecieron en Internet una serie de activos (sprites, diseños, roms, prototipos y código fuente) relacionados con los albores de la franquicia Pokémon. A día de hoy se desconoce el responsable de exponer toda esta documentación, pero recientemente se ha descubierto que el material forma parte de una filtración mucho más grande y que afecta a varias generaciones de consolas Nintendo, incluyendo Wii, GameCube y Nintendo 64. El material es viejo y todas las consolas mencionadas han pasado por las manos de la scene, pero filtración sigue siendo interesante debido a… Leer noticia completa y comentarios »
06 May 18:05

Hidden Networks: Nueva versión para detectar redes ocultas en tu empresa

by noreply@blogger.com (Chema Alonso)
Ha pasado ya algo de tiempo desde que publicamos aquí la primera versión de esta prueba de concepto llamada Hidden Networks. Como recordaréis, su idea principal (la cual está desarrollada en profundidad en este paper) es controlar y hacer un seguimiento de aquellos dispositivos (en principio pendrives USB) que se han conectado en algún equipo dentro de nuestra infraestructura.

Figura 1: Hidden Networks: Nueva versión para detectar redes ocultas en tu empresa

De esta forma, podríamos visualizar esas conexiones entre equipos que incluso, en principio, podrían estar incluso desconectados de la red. Después de la charla que dimos en la C0r0n4CON (y que Pablo González resumió en este post), queremos compartir con vosotros esta nueva versión que incorpora algunas mejoras.


Hidden Networks (HN) nos ayuda a implementar desde un enfoque práctico y automatizar esta tarea de identificación, permitiendo analizar esa información tanto en un equipo local, como en todos los que tengamos acceso desde el equipo anfitrión (desde el cual estamos lanzando la aplicación). Es decir, si estamos en un dominio, podríamos auditar todos los equipos dentro del mismo desde HN.

Figura 3: Hidden Networks (HN) en ElevenPaths

En esta nueva versión de HN (0.9b), hemos realizado mejoras y limpieza del código (aún así queda mucho por hacer) y añadido nuevas funcionalidades, sobre todo a la hora de dibujar el grafo o la red. De todas formas, aún tenemos mucho que mejorar, implementar y optimizar, pero lo realmente importante de HN es su concepto principal (que Chema Alonso ya publicó originalmente aquí), su filosofía de trazar y dibujar esas redes que en principio, no son visibles.

Figura 4: Nuevo diseño de la interfaz de Hidden Networks

Como hemos comentado antes, las principales mejoras se han centrado a la hora de dibujar la red o grafo, así como la identificación del dispositivo USB. Una vez hemos terminado nuestro análisis completo recopilando los datos desde la red, o simplemente importando un CSV (generado con HN o incluso manualmente, para pruebas) directamente con el botón “Plot single CSV”, podemos proceder a dibujar la red sin necesidad de crear un proyecto previo. Pero esta vez, además el grafo se ha mejorado sensiblemente.


Figura 5: Presentación de Hidden Networks en C0r0n4con
Ahora, además de dibujar aquellos nodos que se encuentran una red (color azul claro) se destacan también aquellos nodos que están totalmente aislados de la red (con color naranja). Es decir, podemos detectar de un golpe de vista aquellos que estaban sin conexión, pero en los cuales se ha conectado el pendrive. De esta forma, queremos resaltar el punto clave de este análisis: los equipos que no tienen conexión a la red y su conexión (o red oculta) con el resto.

Figura 6: Ejemplo de grafo que muestra una red oculta trazada por un
pendrive USB, destacando los nodos sin conexión o aislados (naranja)

En el grafo mostrado en la Figura 6, podemos comprobar la trazabilidad marcada, en este caso, por un pendrive USB de la marca Toshiba. Vemos que la primera conexión se realizó en la dirección IP 198.168.1.30 a las 14:30 del día 9/1/2017 y partir de aquí comienza su movimiento a través de diferentes imágenes, incluso con otras direcciones IP como por ejemplo en el quinto salto, donde vemos la dirección IP 10.1.1.15. Durante la traza podemos ver que también accede a un equipo llamado PCINSOLATED_018 el día 14/6/2017. Es decir, en este equipo se ejecutó HN a nivel local y recopiló esta información dentro del mismo proyecto.

De esta forma podemos comprobar cómo se ha realizado una conexión entre equipos, digamos “conectados” y otros totalmente aislados. Después de visitar este nodo aislado, vemos que conecta con otro que esta vez sí tiene conectividad (aquí podríamos haber recopilado la información HN tanto en remoto o en local). Finalmente perdemos la trazabilidad en un equipo también aislado. Si hemos sufrido algún tipo de incidente en nuestra organización, HN nos muestra un nuevo punto de vista de análisis para poder detectar su origen y movimiento por nuestra infraestructura y así ayudarnos a su identificación y mitigación.

Figura 7: Ejemplo de grafo e identificación del dispositivo USB

Otra de las nuevas funcionalidades que hemos implementado es la identificación visual del dispositivo USB. Basándonos en la marca y modelo obtenidos durante la auditoría, podemos realizar una búsqueda por Internet de las imágenes de dicho dispositivo para de esta forma, tener una referencia visual del mismo.

Esta imagen nos puede ayudar a la hora de recopilar aquellos USB sospechosos de realizar la infección en las máquinas para su posterior análisis, ya estén aisladas o conectadas a la red. Por lo tanto, junto al grafo mostramos también una fotografía de dicho dispositivo junto a su identificador único, el número de serie o Serial ID (como se puede apreciar en la Figura 7).

Figura 8: Ejemplo de informe generado en PDF de HN

Finalmente, hemos mejorado también la generación de informes en PDF con toda la información recopilada durante el análisis. En ella se incluyen los datos del dispositivo (como el USB Serial Id, USB Name, etcétera) así como la trazabilidad completa de los saltos realizados. También se incluyen el grafo y la imagen del dispositivo USB.

Por cada elemento detectado (USB) se realiza un informe individual con toda esta información. De esta forma cerramos todos los pasos que HN pretende demostrar en una PoC, los cuales empiezan por una adquisición de los datos (tanto en red como local), análisis de los mismos (trazabilidad utilizando las fechas y hora de la primera inserción), dibujo del grafo dirigido (marcando los nodos aislados) y finalmente, un informe donde se detalla y resume toda la información obtenida.

Figura 9: Fichero CSV encargado de dibujar parte del grafo de la Figura 6,
donde podemos ver la información almacenada (nombre de equipo,
dirección IP, descripción, Serial ID y fecha/hora de inserción)

Pero mejor vamos a ver esta nueva versión de HN en acción. En el vídeo a continuación hemos creado el siguiente escenario. Existe un dominio llamado testdomain.local gestionado por un servidor de Windows Server 2016, donde se incluyen dentro del mismo otros tres equipos más, dos con Windows 7 y uno con Windows 10.

Lanzaremos HN desde uno de los equipos con Windows 7 (pantalla principal). A partir de este punto veremos todo el proceso de adquisición de datos a través de la red de los equipos a auditar y finalmente veremos el dibujo del grafo, así como la información de los USB. Al final del vídeo también se muestra cómo se importa un CSV (el que aparece en la Figura 9) para dibujar un grafo más completo donde se pueden comprobar nodos sin conexión aparente (aislados).

Figura 10: Demo de la nueva versión de Hidden Networks

Insistimos, Hidden Networks es una prueba de concepto donde se pueden mejorar muchas de sus funcionalidades, así como el código. Pero nuestra intención no es hacer una aplicación totalmente funcional al 100%, sino trasladaros de una manera práctica, el concepto de las redes ocultas y su posible utilidad dentro del mundo del pentesting o incluso del Análisis Forense. De todas formas, haremos un esfuerzo e intentaremos mejorar y actualizar la aplicación siempre que sea posible. Puedes acceder a toda la información, así como al código fuente en este enlace.

Happy Hacking Hackers!!!

Autores:

Fran Ramírez, (@cyberhadesblog) es investigador de seguridad y miembro del equipo de Ideas Locas en CDO en Telefónica, co-autor del libro "Microhistorias: Anécdotas y Curiosidades de la historia de la informática (y los hackers)", del libro "Docker: SecDevOps", también de "Machine Learning aplicado a la Ciberseguridad” además del blog CyberHades. Puedes contactar con Fran Ramirez en MyPublicInbox.


 Contactar con Fran Ramírez en MyPublicInbox
29 Apr 19:26

Médicos en Europa advierten sobre el vínculo entre Covid-19 y los síntomas de shock tóxico en niños

by Ed Cara

Los médicos en Europa advierten que han comenzado a ver un aumento alarmante de complicaciones raras y potencialmente mortales entre los niños confirmados o sospechosos de tener covid-19. Sin embargo, no es seguro lo comunes que son estas complicaciones o si están necesariamente relacionadas con el nuevo coronavirus.

Read more...

29 Apr 19:19

Cómo grabar la pantalla de tu ordenador sin instalar aplicaciones y sin encontrarte con publicidad

by Santi Araújo

Cómo grabar la pantalla de tu ordenador sin instalar aplicaciones y sin encontrarte con publicidad

Cuando gran parte del mundo se encuentra confinado en sus casas (con muchas personas teletrabajando) son totalmente necesarias algunas herramientas que nos permitan comunicarnos con los demás mediante Internet.

Grabar la pantalla de nuestro equipo puede ser una manera muy útil, por ejemplo, para enseñarle a un compañero de trabajo o familiar cuál es el modo de utilizar correctamente cierta herramienta.

Privada, sin publicidad y gratuita

Screen Recorder te permite hacerlo sin necesidad de utilizar aplicaciones de terceros, y podrás hacerlo directamente desde el navegador. Por si fuera poco, es completamente gratuito y no tendrás que estar esquivando publicidad.

Su funcionamiento no puede ser más sencillo. Una vez que hayamos entrado, veremos un botón de color rojo que nos permite comenzar una grabación (y elegir la ventana o aplicación que queramos grabar).

Un punto importante es que debajo de este botón encontraremos otro que nos permite activar la grabación de nuestro audio. Esto es útil por si queremos dar algunas indicaciones mediante la voz o preferimos la privacidad del silencio y sólo mostrar la grabación de vídeo.

Una vez que hayamos pulsado el botón de "select screen" podremos elegir entre tres modos de grabación: "Toda la pantalla" (es decir, todo lo que estás viendo tú), "Ventana de la aplicación" (grabar sólo una app en concreto) o "Pestaña de Chrome" (para grabar una pestaña del navegador).

Screen Recorder Free Private No Ads
Sólo está disponible para equipos de escritorio, pero si accedemos desde el móvil nos recomendará un buen método para hacerlo

Cuando hayamos seleccionado el que queramos, aparecerá un mensaje que nos indica que la "grabadora está preparada". Simplemente tendremos que pulsar sobre el botón de color rojo que aparece debajo y empezará la grabación. Podemos pausarla y reanudarla, y cuando hayamos acabado sólo habrá que pulsar el botón de "save".

Es entonces cuando tenemos la posibilidad de revisar la grabación y descargarla en nuestro equipo. Hay que dejar claro que esta web sólo funciona en equipos de escritorio, y si accedemos desde un dispositivo móvil nos recomendará una app para hacerlo.

-
La noticia Cómo grabar la pantalla de tu ordenador sin instalar aplicaciones y sin encontrarte con publicidad fue publicada originalmente en Genbeta por Santi Araújo .

29 Apr 19:19

Ahora puedes comprar una versión Bluetooth del mítico teclado del IBM Thinkpad (TrackPoint rojo de goma incluido)

by Eduardo Marín

¿Recuerdas el ThinkPad? Se trata de uno de los portátiles o laptops más conocidos y populares desde hace décadas, en especial gracias a su resistencia y, cómo no, a ese maravilloso teclado que en su área central cuenta con un extraño punto rojo que, una vez te acostumbras a él, no podrás dejar de usarlo. Ahora puedes…

Read more...

29 Apr 19:18

Ahora puedes hacer videollamadas cifradas y gratuitas con hasta 100 personas en Google Meet

by Victoria Song

No hay duda de que Google no estaba preparada para el aumento de videollamadas durante la pandemia global, porque ha dejado que Zoom se convierta en “ese programa que todos usan para las reuniones de vídeo”. Pero a partir de mayo, cualquier persona con una cuenta de Google podrá registrarse en Google Meet de manera …

Read more...

29 Apr 19:14

RetroPie for Raspberry Pi 4: video game emulation on our fastest-ever device

by Alex Bate

For many of you out there, your first taste of Raspberry Pi is using it as a retro gaming emulator running RetroPie. Simple to install and use, RetroPie allows nostalgic gamers (and parents trying to educate their kids) the ability to play old-schoolskool classics on any monitor in their home, with cheap USB game controllers or models from modern consoles.

GuzziGuy RetroPie Table

Mid-century-ish Retro Games Table’ by Reddit user GuzziGuy

And because our community is so wonderfully inventive, Raspberry Pis running RetroPie have found themselves in homebrew gaming cabinets, old console casings, and even game cartridges themselves.

[Original Showcase Video] Pi Cart: A Raspberry Pi Retro Gaming Rig in an NES Cartridge

I put a Raspberry Pi Zero (and 2,400 vintage games) into an NES cartridge and it’s awesome. Powered by RetroPie. — See the full build video: https://www.yo…

Along came Raspberry Pi 4

When we announced Raspberry Pi 4 last year, a much faster device with more RAM than we’d previously offered, the retro gaming enthusiasts of the world quickly took to prodding and poking the current version of the RetroPie software to get it to work on our new, more powerful computer. And while some succeeded, those gamers not as savvy with manually updating the RetroPie software had to wait for a new image.

Retro Pie 4.6

And so yesterday, to much hurrah from the Raspberry Pi and retro gaming community, the RetroPie team announced the release of image version 4.6 with beta Raspberry Pi 4 support!

One of the biggest changes with the update is the move to Raspbian Buster, the latest version of our operating system, from Raspbian Stretch. And while they’re currently still advertising the Raspberry Pi 4 support as in beta, version 4.6 works extremely well on our newest model.

Update today!

Visit the RetroPie website today to download the 4.6 image, and if you have any difficulties with the software, visit the RetroPie forum to find help, support, and a community of like-minded gamers.

The post RetroPie for Raspberry Pi 4: video game emulation on our fastest-ever device appeared first on Raspberry Pi.

29 Apr 19:13

Google Meet, Google’s Zoom competitor, is now free for everyone

by Ron Amadeo
Google Meet, Google’s Zoom competitor, is now free for everyone

Enlarge (credit: Google Meet)

Google Meet, Google's newest video chat service, will soon be free for everyone. The service, which was previously locked behind G Suite, is opening up to anyone with a Google account.

Users will be able to access the service at meet.google.com or through the iOS and Android apps. While the service's free tier is unrestricted now, it won't be unrestricted forever. Google says that, after September 30, meetings for non G Suite accounts will be limited to 60 minutes.

If you've never heard of "Google Meet" before, don't feel bad. The branding only popped up earlier this month, when Google quietly renamed "Google Hangouts Meet" to "Google Meet." Hangouts Meet is something we've written about before, and it launched in 2017 as a reboot to Google's enterprise messaging suite, which consisted of Hangouts Meet and Hangouts Chat. Both of these 2017 enterprise "Hangouts" products have no relation to the widely used, consumer-focused "Google Hangouts" chat app from 2013, which is still part of Gmail and was a default Android app for a long time. Google claims it wants to merge all the "Hangouts" products together, but you can never be sure what the future of Google's disorganized messaging strategy will hold.

Read 5 remaining paragraphs | Comments

29 Apr 19:12

¿Conoces la Guía Nacional de Notificación y Gestión de Ciberincidentes?

by INCIBE

Imagen decorativa anexo a la guía nacional de gestión de ciberincidentes

La última versión de la “Guía Nacional de Notificación y Gestión de Ciberincidentes” ha sido actualizada. Adicionalmente a esta actualización, desde INCIBE-CERT se ha publicado el anexo de “Procedimiento de gestión de ciberincidentes para el sector privado y la ciudadanía” que pretende servir de apoyo en estas tareas, así como recoger los mecanismos, referencias y canales para su notificación al Centro de Respuesta a Incidentes de Seguridad de INCIBE (INCIBE-CERT) cuando así proceda.

Qué debemos hacer si en nuestra organización se diera un incidente de seguridad? ¿Cuáles son los pasos que se deben seguir y en qué orden? ¿Tengo la obligación de informar a alguna autoridad? ¿Puedo contar con ayuda? Por muchas y muy bien implantadas que estén las medidas de seguridad en tu negocio, siempre estará presente el riesgo de que se materialice una amenaza. Por este motivo, es imprescindible contar con un plan de acción que marque las pautas a seguir en caso de que se produzca algún incidente de seguridad.

Los incidentes de seguridad son situaciones que pueden causar un gran daño en nuestros entornos (sistemas de información, personas, negocios...); por este motivo es importante tener la capacidad, en primer lugar, de prevenirlos, y en segundo, de detectarlos y de responder adecuadamente a ellos.

La detección se basa obligatoriamente en el despliegue de sistemas de vigilancia y en el uso adecuado de los mismos, mientras que la respuesta adecuada a los incidentes de seguridad pasa, en primer lugar, por la identificación clara de cualquier incidente, su escalado hacia los grupos gestores del mismo, correctos en cada caso y su contención, erradicación y recuperación.

La última versión de la “Guía Nacional de Notificación y Gestión de Ciberincidentes”, que ofrece a toda entidad, pública o privada, y ciudadanos en general, el esquema y la orientación precisa acerca de a quién y cómo debe reportar un incidente de ciberseguridad acaecido en el seno de su ámbito, ha sido actualizada para precisar y mejorar los siguientes puntos:

  • Una clasificación/taxonomía homogénea de los ciberincidentes.
  • Los impactos y umbrales de notificación, así como los tiempos de cierre de un ciberincidente sin respuesta, en función de su nivel de peligrosidad o impacto.
  • La asignación de métricas e indicadores de referencia, recomendadas para medir el nivel de implantación y eficacia del proceso de gestión de incidentes de cada organización.

Adicionalmente a esta actualización, desde INCIBE-CERT se ha publicado el anexo de “Procedimiento de gestión de ciberincidentes para el sector privado y la ciudadanía” que pretende servir de apoyo en estas tareas, así como recoger los mecanismos, referencias y canales para su notificación al Centro de Respuesta a Incidentes de Seguridad de INCIBE (INCIBE-CERT) cuando así proceda.

La gestión de incidentes de seguridad de la información es un conjunto ordenado de acciones enfocadas a prevenir, en la medida de lo posible, la ocurrencia de ciberincidentes y, en caso de que ocurran, restaurar los niveles de operación lo antes posible.

El anexo comienza con un repaso por cada una de las fases más habituales de este proceso, las cuales son:

  • Preparación: en este estado previo al ciberincidente se busca que toda la entidad esté preparada ante la llegada de cualquier posible suceso, para ello, la anticipación y el entrenamiento previo son claves, siempre teniendo en cuenta tres pilares fundamentales: las personas, los procedimientos y la tecnología.
  • Identificación: conociendo el estado normal de la operativa diaria, la organización es capaz de identificar anomalías que requieran de análisis en profundidad. Si el evento finalmente se descarta, se vuelve a la fase de preparación.
  • Contención: el tiempo es determinante cuando ocurre un ciberincidente, ya que la reputación o la continuidad de negocio están en juego. En esta fase se busca contener el problema, evitando que el atacante cause más daños como, por ejemplo, comprometiendo dispositivos adicionales o divulgando más información. Posteriormente se estudia la situación y se clasifica el ciberincidente. También conviene registrar y documentar lo ocurrido con ayuda de herramientas de gestión y ticketing, además de llevar a cabo procedimientos de toma y preservación de evidencias para analizarlos más tarde.
  • Mitigación: se toman las medidas necesarias para la mitigación, las cuales dependerán del tipo de ciberincidente. En algunos casos, puede ser necesario solicitar asistencia de entidades externas, como proveedores de servicios de mitigación de este tipo de ataques o un CSIRT nacional como INCIBE-CERT, que puedan apoyar en el análisis y definición de la estrategia de mitigación.
  • Recuperación: la finalidad de esta fase consiste en devolver el nivel de operación a su estado normal y que las áreas de negocio afectadas puedan retomar su actividad. También se debe realizar un seguimiento durante la puesta en producción, en busca de posibles actividades sospechosas.
  • Actuaciones post-incidente: una vez que el ciberincidente está controlado y la actividad ha vuelto a la normalidad llega la hora de las lecciones aprendidas, cuya finalidad es aprender de lo sucedido para que se puedan tomar las medidas adecuadas y evitar que una situación similar se pueda volver a repetir.

Fases de la gestión de incidentes

- Fases de la gestión de incidentes -

También se aborda el procedimiento y los mecanismos para la notificación de ciberincidentes al CSIRT de referencia, que puede realizarse desde la entidad afectada, ciudadanos, pymes, entidades de derecho privado o instituciones afiliadas a RedIRIS  hacia INCIBE-CERT o viceversa, para beneficiarse del servicio de respuesta, independientemente de que finalmente resuelva el ciberincidente por sus propios medios. Se divide en 3 fases:

  • Apertura: cuando se recibe una notificación, el equipo técnico de INCIBE-CERT realiza un análisis inicial para determinar el ámbito de actuación.
  • Priorización: a cada ciberincidente se le asignará una prioridad en función de la peligrosidad y del impacto potencial del mismo.
  • Resolución: una vez que se ha alcanzado una solución que implique el cierre del incidente, tanto por parte del afectado como por parte de INCIBE-CERT, esta será comunicada a los actores implicados en el ciberincidente.

INCIBE-CERT, CSIRT nacional

- INCIBE-CERT, CSIRT nacional -

Para finalizar, en el documento también se facilita una sección de ayuda para el cálculo del impacto, con criterios adicionales a los incluidos en la Guía Nacional, con el ánimo de facilitar a ciudadanos, empresas y entidades afiliadas a RedIRIS las labores de cálculo de impacto de un incidente de seguridad.

Recuerda que nuestro servicio público y gratuito de respuesta a incidentes pone a tu disposición nuestra capacidad tecnológica y de coordinación que permita ofrecerte un apoyo operativo ante ciberamenazas o ante la ocurrencia de ciberincidentes.

Este anexo se encuentra disponible junto con la Guía Nacional de Notificación y Gestión de Ciberincidentes en el siguiente enlace:

Etiquetas: Continuidad, Incidente

28 Apr 19:44

Una vulnerabilidad de Microsoft Teams permitía robar los datos de acceso con sólo enseñar un archivo GIF al usuario

by Marcos Merino

Una vulnerabilidad de Microsoft Teams permitía robar los datos de acceso con sólo enseñar un archivo GIF al usuario

Cuantos más usuarios tiene un software o plataforma, más interés suscita entre los ciberdelincuentes y analistas de ciberseguridad, por lo que mayor es la probabilidad de detectar vulnerabilidades en los mismos. No es de extrañar, por tanto, que las aplicaciones de videollamadas hayan sido las reinas en este campo desde que comenzaron las cuarentenas por el coronavirus.

Sí resulta menos habitual que esta clase de titulares no los protagonice Zoom (quien, tras varias polémicas, parece estar poniéndose al día en materia de seguridad), sino su rival Microsoft Teams, que actualmente ostenta la cifra de 44 millones de usuarios diarios.

Y es que la vulnerabilidad que han descubierto en esta app de trabajo en grupo es especialmente llamativa: la mera visualización (ya no descarga) de un mero archivo GIF malicioso podría permitir a un atacante acceder a la cuenta de un usuario (o, más habitualmente, de todo un equipo al mismo tiempo).

Dicha vulnerabilidad, que habría afectado potencialmente a todos los usuarios que accedieran a Teams tanto a través de la app de escritorio como del navegador web, ha sido descubierta por un grupo de investigadores de CyberArk Labs y descrita en su página web.

La vulnerabilidad se ha hecho pública después de haber sido solventada

Según nos han hecho llegar fuentes de Microsoft, la compañía ha estado trabajando junto a CyberArk para llevar a cabo una divulgación coordinada de esta vulnerabilidad una vez que esta ya se hubiera solventado:

"Hemos tomado medidas para salvaguardar la seguridad de nuestros clientes [...] pese a que no hemos tenemos constancia de que esta técnica haya llegado a usarse".

Pese a lo chocante que resulte el uso de un GIF con estos fines, en realidad este archivo de imagen sólo era un medio para aprovechar una vulnerabilidad más profunda, centrada en un robo de cookies previa pérdida de control por parte de Microsoft de dos de sus subdominios, deficientemente supervisados: aadsync-test.teams.microsoft.com y data-dev.teams.microsoft.com.

"El hecho de que la víctima sólo necesite ver el archivo para verse afectada constituye una pesadilla desde el punto de vista de la ciberseguridad"

CyberArk no ha especificado el modo en que lograron hacerse con esos subdominios (sí que dar con alguno que resultara útil para este ataque "no resultó fácil"), pero por ejemplo en los casos en que el CNAME de los mismos apunte a dominios expirados, es posible redirigirlos a una máquina controlada por el atacante.

El control de dichos subdominios facilitaba lograr que Teams enviara a los mismos tokens de autenticación, que se modificaban para hacerlos pasar por tokens de Skype una vez la víctima clicara en el GIF malicioso (alojado en alguno de los subdominios en cuestión) y facilitar el acceso al cliente del usuario.

Dichos tokens falseados sólo cuentan con una validez de una hora, pero es tiempo más que suficiente para realizar el robo de información (y en caso contrario, siempre se puede enviar otro GIF).

Ha sido precisamente este problema de envío de tokens el que le ha bastado solventar a Microsoft para impedir que los cibercriminales puedan hacer uso a partir de ahora de la técnica descubierta por CyberArk. En cualquier caso, si eres usuario de la aplicación y has recibido últimamente algún GIF que te haga dudar de su legitimidad, lo mejor es que te cures en salud cambiando tus datos de acceso a tu cuenta.

Vía | CyberArk

-
La noticia Una vulnerabilidad de Microsoft Teams permitía robar los datos de acceso con sólo enseñar un archivo GIF al usuario fue publicada originalmente en Genbeta por Marcos Merino .

27 Apr 23:53

Attackers exploit 0-day code-execution flaw in the Sophos firewall

by Dan Goodin
A gaping hole in a brick wall.

Enlarge (credit: Rae Allen / Flickr)

Users of a widely used firewall from Sophos have been under a zero-day attack that was designed to steal usernames, cryptographically protected passwords, and other sensitive data, officials with the security firm said on Sunday.

The well-researched and developed attack exploited a SQL injection flaw in fully patched versions of the Sophos XG Firewall. With that toehold in systems, it downloaded and installed a series of scripts that ultimately executed code intended to make off with users’ names, usernames, the cryptographically hashed form of the passwords, and the salted SHA256 hash of the administrator account’s password. Sophos has delivered a hotfix that mitigates the vulnerability.

Other data targeted by the attack included a list of the IP address allocation permissions for firewall users; the version of the custom operating system running; the type of CPU; the amount of memory that was present on the device; how long it had been running since the last reboot; the output of the ifconfig, a command-line tool; and ARP tables used to translate IP addresses into domain names.

Read 6 remaining paragraphs | Comments

25 Apr 23:52

Ya fue liberada la beta final de Snort 3, un sistema de detección de intrusos en la red

by David Naranjo

Los desarrolladores de Cisco dieron a conocer la versión beta final del sistema de prevención de intrusos “Snort 3” el cual fue completamente rediseñado, ya que para esta nueva version los desarrolladores trabajaron en el concepto del producto por completo y la arquitectura se rediseñó.

Entre las áreas que se enfatizaron durante la preparación de la nueva version, se encuentran la configuración simplificada y el lanzamiento de la aplicación, la automatización de la configuración, la simplificación del lenguaje de construcción de reglas, la detección automática de todos los protocolos, la provisión de un shell para la administración de la línea de comandos, el uso activo de subprocesos múltiples con el acceso conjunto de diferentes manejadores para configuración única.

Sobre Snort

Para quienes desconocen de Snort, deben saber que este es un sistema de detección de intrusos en la red, libre y gratuito. Ofrece la capacidad de almacenamiento de bitácoras en archivos de texto y en bases de datos abiertas, como MySQL. Implementa un motor de detección de ataques y escaneo de puertos que permite registrar, alertar y responder ante cualquier anomalía previamente definida.

Durante su instalación, provee de cientos de filtros o reglas para backdoor, DDoS, finger, FTP, ataques web, CGI, Nmap, entre otros.

Puede funcionar como sniffer y registro de paquetes. Cuando un paquete coincide con algún patrón establecido en las reglas de configuración, se logea. Así se sabe cuándo, de dónde y cómo se produjo el ataque.

Snort tiene una base de datos de ataques que se actualiza constantemente a través de internet. Los usuarios pueden crear firmas basadas en las características de los nuevos ataques de red y enviarlas a la lista de correo de firmas de Snort, esta ética de comunidad y compartir ha convertido a Snort en uno de los IDS basados en red más populares, actualizados y robustos.

Principales novedades de la beta final de Snort 3

En esta beta final, Snort presenta una transición a un nuevo sistema de configuración que ofrece una sintaxis simplificada y permite el uso de scripts para la formación dinámica de configuraciones. LuaJIT se usa para procesar archivos de configuración. Los complementos basados ​​en LuaJIT se proporcionan con la implementación de opciones adicionales para reglas y un sistema de registro;

Se ha modernizado el motor para detectar ataques, se han actualizado las reglas, se ha agregado la capacidad de vincular buffers en las reglas (buffers fijos). El motor de búsqueda Hyperscan está involucrado, lo que le permite utilizar patrones disparados rápidos y más precisos basados ​​en expresiones regulares en las reglas;

Se ha agregado un nuevo modo de introspección para HTTP, teniendo en cuenta el estado de la sesión y cubriendo el 99% de las situaciones admitidas por el conjunto de pruebas HTTP Evader . El código se está desarrollando para admitir HTTP / 2.

Aumentó significativamente el rendimiento del modo de inspección profunda de paquetes. Se agregó la capacidad de procesamiento multiproceso de paquetes, lo que permite la ejecución simultánea de múltiples subprocesos con controladores de paquetes y proporciona escalabilidad lineal según el número de núcleos de CPU.

Se ha implementado un repositorio común de tablas de configuración y atributos, que se comparte en diferentes subsistemas, lo que permitió reducir significativamente el consumo de memoria al eliminar la duplicación de información;

Ademas, se implementó un nuevo sistema de registro de eventos que utiliza el formato JSON y se integra fácilmente con plataformas externas como Elastic Stack.

También se destaca la transición a una arquitectura modular, la posibilidad de ampliar la funcionalidad a través de la conexión de complementos y la implementación de subsistemas clave en forma de complementos reemplazables.

Actualmente, Snort 3 ya ha implementado varios cientos de complementos que cubren varios campos de aplicación, por ejemplo, lo que le permite agregar sus propios códecs, modos de introspección, métodos de registro, acciones y opciones en las reglas, ademas de la detección automática de servicios en ejecución, eliminando la necesidad de especificar manualmente los puertos de red activos.

Finalmente si quieres conocer más al respecto o probar esta beta, puedes consultar los detalles en el siguiente enlace.

23 Apr 17:19

Aprende JavaScript creando ocho videojuegos simples y clásicos que puedes añadir a tu portafolio

by Gabriela González

Aprende JavaScript creando ocho videojuegos simples y clásicos que puedes añadir a tu portafolio

Cortesía de la gente de freeCodeCamp tenemos este pequeño curso de JavaScript a través del cual la instructora Ania Kubow te enseñará a construir una pila de videojuegos bastante básicos y clásicos que utilizan cuadriculas.

A través del tutorial de dos horas de duración vas a participar en la creación de siete geniales juegos con estilos mínimos, a los que podrás dar tu propio toque personal al finalizar para que sean más tuyos y los puedas incluir orgullosamente en tu portafolio.

JavaScript básico creando videojuegos

Los juegos que vas a crear son el Snake clásico de los móviles Nokia, Space Invaders, Tetris, Frogger, Connect Four, Whack-a-mole, y un juego de memoria. El tutorial está separado por juego y de cada uno crearás un nivel diferente.

El código de todos y cada uno de los proyectos está disponible en GitHub:

En el vídeo te enseñarán múltiples métodos y funciones de JavaScript que luego podrás utilizar para crear tus propios niveles y personalizarlos. Siempre puedes ampliar tus conocimientos con los cursos y certificaciones completos de freeCodeCamp que son completamente gratuitos. Este tipo de vídeos suelen ser recursos adicionales para llevar a la práctica lo que vas aprendiendo.

Si encuentras útil este tutorial, también te recomiendo otro vídeo de la misma instructora en la que puedes aprender a crear tu propio PACMAN usando JavaScript, HTML, y CSS.

-
La noticia Aprende JavaScript creando ocho videojuegos simples y clásicos que puedes añadir a tu portafolio fue publicada originalmente en Genbeta por Gabriela González .

23 Apr 12:16

Docker: ¿Cómo instalar la última versión estable sobre DEBIAN 10?

by Linux Post Install
Docker: ¿Cómo instalar la última versión estable sobre DEBIAN 10?

Docker: ¿Cómo instalar la última versión estable sobre DEBIAN 10?

La virtualización de Sistemas Operativos y Aplicaciones o Sistemas consiste básicamente en, poder compartir en un mismo Hardware, varios elementos de estos funcionando de forma totalmente independiente.

Cuando se trata de virtualizar Sistemas Operativos con tecnologías gratuitas, libres y/o abiertas, se suele preferir tecnologías o aplicaciones, tales como Promox, Xen, VirtualBox, QEMU o KVM. Pero cuando se trata, de Aplicaciones o Sistemas, se suele recurrir mayoritariamente a Kubernetes o Docker.

Docker: Introducción

Estas 2 últimas, son tecnología de virtualización basada en contenedores. En el caso de Docker, está fue liberada en el año 2013, como parte de un desarrollo de código abierto llamado Docker Engine. Que aprovechó los existentes adelantos de la época, es decir, los conceptos y conocimientos sobre contenedores hasta la fecha provenientes de los Sistemas Operativos libres y/o abiertas (Unix/Linux), tales como cgroups y namespaces, para avanzar en dicha floreciente área de la tecnología.

En oportunidades, anteriores hemos hablado sobre Docker, razón por la cual no profundizaremos en que es, o cuales son sus características, facilidades, u otros detalles o elementos. Por lo que, nos enfocaremos realmente en la instalación de la versión actual (19.03.8) sobre DEBIAN 10 (Buster) y Distros GNU/Linux, similares o basadas en estas, tal como MX Linux 19.

Sin embargo, para mayor información se puede acceder a nuestras anteriores publicaciones sobre Docker.

Docker: Contenido

¿Qué es un Contenedor?

Antes de iniciar el proceso de instalación de esta tecnología de virtualización basada en contenedores, para luego poder instalar cualquier aplicación o sistema mediante un “Contenedor”, es importante dejar en claro para los menos entendidos, lo que significa un contenedor.

Citando a la página oficial de HPE (Hewlett Packard Enterprise) sobre dicha tecnología, la misma nos dice lo siguiente:

“Los Contenedores de aplicaciones son entornos ligeros de tiempo de ejecución que proporcionan a las aplicaciones los archivos, las variables y las bibliotecas que necesitan para ejecutarse, maximizando de esta forma su portabilidad”.

“Si bien las Máquinas Virtuales (VM) tradicionales permiten la virtualización de la infraestructura de computación, los Contenedores habilitan la de las aplicaciones de software. A diferencia de las Máquinas Virtuales, los Contenedores utilizan el Sistema Operativo (SO) de su host en lugar de proporcionar el suyo propio”.

Docker: Proceso de instalación sobre DEBIAN 10 (Buster)

A. Paso 1

Preparar el Sistema Operativo para la instalación.

sudo apt update && sudo apt-get install apt-transport-https ca-certificates curl gnupg-agent software-properties-common

Docker: Instalación - Paso 1

B. Paso 2

Descargar la llave del Repositorio oficial, configurar el Repositorio oficial y validar los archivos disponibles del mismo, con la versión de nuestra Distro GNU/Linux. Para nuestro caso, DEBIAN 10 (Buster) u otra Distro GNU/Linux, similar o basadas en esta, tal como MX Linux 19.

curl -fsSL https://download.docker.com/linux/debian/gpg | sudo apt-key add -
sudo add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/debian $(lsb_release -cs) stable"
sudo apt update && apt-cache policy docker-ce

Docker: Instalación - Paso 2

C. Paso 3

Instalar la aplicación y los archivos esenciales recomendados.

sudo apt install docker-ce docker-ce-cli containerd.io

Docker: Instalación - Paso 3

D. Paso 4

Validar instalación de la aplicación, ejecutando la instalación del contenedor de prueba llamado “hello-world”.

sudo docker run hello-world

Docker: Instalación - Paso 4

E. Paso 5

Comprobar la versión de la aplicación instalada.

docker -v

Docker: Instalación - Paso 5

F. Paso 6

Este paso es opcional, ya que básicamente es para comprobar que el contenedor ya instalado, no es descargado e instalado nuevamente, al solicitársele que se ejecute nuevamente.

sudo docker run hello-world

Docker: Instalación - Paso 6

G. Paso 7

Este otro paso también puede considerarse opcional, ya que básicamente es para permitir que un “usuario no administrador” pueda ejecutar un contenedor sin necesitar permisos de “usuario administrador”. Para este caso de estudio, se le dará permiso a un usuario existente llamado “sysadmin”.

sudo adduser sysadmin docker
docker run hello-world

Docker: Instalación - Paso 8

H. Paso 8

Por último, lo ideal antes de iniciar a usar por completo a Docker, es reiniciar y validar el arranque del Servicio y la ejecución del contenedor de prueba.

sudo /etc/init.d/docker status
docker run hello-world

Docker: Instalación - Paso 8

Más adelante, en otra publicación sobre dicha tecnología o relacionada con esta, probaremos la instalación de alguna otra aplicación o sistema para seguir aprendiendo a dominar la misma. Sin embargo, para los más autodidactas o curiosos, existe un excelente manual que contiene más información relacionada con la instalación sobre DEBIAN GNU/Linux 9/10 en la sección de documentación del sitio oficial de Docker.

Por último, en caso de querer saber un poco más sobre Docker, como funciona y es usado en la vida real, se puede acceder a los siguientes 2 enlaces: RedHat y AWS Amazon.

Imagen generica para conclusiones de artículos

Conclusión

Esperamos que esta “pequeña y útil publicación” sobre esta excelente aplicación y «Tecnología de Virtualización basada en Contenedores» llamada «Docker», la cual que proporciona una capa adicional de abstracción y automatización de virtualización de aplicaciones en múltiples Sistemas Operativos; sea de mucho interés y utilidad, para toda la «Comunidad de Software Libre y Código Abierto» y de gran contribución a la difusión del maravilloso, gigantesco y creciente ecosistema de aplicaciones de «GNU/Linux».

Por ahora, si te ha gustado esta «publicación», no dejes de compartirla con otros, en tus sitios web, canales, grupos o comunidades favoritas de redes sociales, preferiblemente libres y abiertas como Mastodon, o seguras y privadas como Telegram.

O simplemente, visita nuestra página de inicio en DesdeLinux o únete al Canal oficial de Telegram de DesdeLinux para leer y votar por esta u otras interesantes publicaciones sobre «Software Libre», «Código Abierto», «GNU/Linux» y demás temas relacionados con la «Informática y la Computación», y la «Actualidad tecnológica».

22 Apr 19:18

Virtual Desktop frente a Remote Desktop: esto es lo que diferencia a estas dos grandes tecnologías para conexiones remotas

by Javier Pastor

Virtual Desktop frente a Remote Desktop: esto es lo que diferencia a estas dos grandes tecnologías para conexiones remotas

El confinamiento por el coronavirus ha hecho que millones de personas hayan tenido que adaptarse a una situación nueva para muchas de ellas: el teletrabajo.

Es justo en este escenario en el que las soluciones de escritorio virtual (virtual desktop) se convierten en una alternativa muy interesante para los trabajadores, pero cuidado, esta tecnología tiene diferencias importantes con las aplicaciones de escritorio remoto (remote desktop) que son muy populares porque permiten administrar y controlar un PC a distancia. Precisamente eso es lo que queremos hacer: explicar qué hacen unas y otras.

Escritorio remoto: bendito TeamViewer

No sé si alguno habréis dicho alguna vez esa frase, pero quien suscribe lo ha hecho como usuario particular. Esta es una de las muchas aplicaciones que permiten acceder a un escritorio remoto y controlarlo como si estuviéramos delante de él (más o menos).

Teamviewer1

Con esa idea es con la que nacieron aplicaciones como la citada TeamViewer: uno instala un cliente en un ordenador y otro en el otro y listo, ambos pueden controlarse remotamente el uno al otro cuando se necesita.

Con ello nos ahorramos tener que desplazarnos hasta donde está el ordenador al que queremos conectarnos, y así podemos por ejemplo ofrecer asistencia remota a la hora de resolver problemas desde nuestro ordenador.

Los casos de uso son interminables y se centran muy especialmente en ese ámbito de la asistencia remota: si algo no le funciona a un empleado (o a una madre, como es mi caso), estas soluciones permiten "meterse" en su PC y solucionarlo incluso explicándole mientras lo que estamos haciendo, porque tomamos control de su teclado, ratón y pantalla, pero ese usuario sigue teniendo control si quiere retomarlo y puede ver todo lo que hacemos en remoto.

Anydesk

Las opciones aquí son inmensas. Windows 10 cuenta con una opción de escritorio remoto nativa, por ejemplo, pero también podemos usar una extensión del navegador Chrome o aplicaciones como la excepcional TeamViewer o AnyDesk, por citar algunas alternativas.

Algunas de esas aplicaciones y opciones no solo permiten controlar un PC, sino que también están destinadas a ofrecer un escritorio móvil remoto, algo que por ejemplo la citada TeamViewer ofrece desde hace tiempo tanto para móviles basados en Android como para los basados en iOS (pudiendo controlar un iPhone desde un Android o viceversa, por ejemplo).

El escritorio virtual, opción llamativa para empresas con teletrabajadores

Las plataformas de escritorio remoto son como decimos una excelente solución para tareas de administración y asistencia remota, pero estas soluciones pueden quedarse cortas si queremos ir a un objetivo más ambicioso: el de poder trabajar con un escritorio virtual remoto.

Winvirtual

Eso es precisamente lo que ofrecen las plataformas de escritorio virtual y variantes como las plataformas DaaS (Desktop as a Service). Estas últimas son simplemente una implementación VDI (Virtual Desktop Infraestructure) sobre la nube.

La diferencia entre ellas dos es que en un VDI una empresa u organización implementa escritorios virtuales desde sus centros de datos locales y son sus técnicos los que deben implementar y gestionar esa infraestructura. Con DaaS todo se basa en la nube y no es necesario adquirir hardware, porque otra empresa proporciona tanto los servidores como la plataforma, su gestión y su mantenimiento.

Hay ciertos de hecho cierto paralelismo con los servicios de streaming de videojuegos como Stadia: todo se ejecuta en remoto, pero la sensación es la de que el usuario está frente a su PC. Y aquí lo único que cambia es que en lugar de jugar a un videojuego en la nube, controlamos un sistema operativo y las aplicaciones de una empresa u organización en la nube.

En estas plataformas la idea es siempre la misma: ofrecer a los usuarios acceso a un escritorio virtual alojado en la nube. Pueden acceder a ese "PC virtual" desde cualquier otro dispositivo (otro PC más o menos potente, un móvil, una tableta), y trabajar en esos dispositivos, por modestos que sean, con el entorno y las aplicaciones que la empresa ha puesto a disposición de sus usuarios en esos PCs virtuales.

Las ventajas para las empresas son numerosas: los usuarios o empleados pueden acceder a sus sesiones de trabajo desde cualquier sitio y dispositivo, y las empresas ahorran recursos a la hora de actualizar y mantener esos puestos de trabajo.

Virtualdesktop2

Además, esos escritorios virtuales garantizan un acceso seguro a todas las aplicaciones —sin que el empleado tenga que usar equipos propios que también pueda tener para uso personal— y esos empleados no tienen que preocuparse de las actualizaciones o de instalar nuevas aplicaciones. La gestión está centralizada, es mucho más sencilla y homogénea, y además de ser totalmente escalable y adaptarse dinámicamente a las necesidades de la empresa suele incluir temas muy importantes como el de la realización de copias de seguridad.

Puede haber también ventajas en el modelo de licencias frente a las soluciones RDS (Remote Desktop Services) que también podrían plantear una alternativa para las empresas: de repente las licencias de Windows 10 (o el sistema operativo servidor), Office y las llamadas licencias de acceso de clientes (CAL) complican el modelo si los usuarios son muchos.

Con las plataformas de escritorio virtual esa gestión de licencias se simplifica y normalmente se abarata. De hecho Microsoft presentó no hace mucho una opción específicamente destinada a este ámbito llamado Windows 10 Multisession, y hace tiempo que Microsoft impulsa su plataforma Windows Virtual Desktop aprovechando el potencial de su infraestructura en la nube, Azure.

En estas plataformas suele haber un fuerte componente de virtualización que permite asignar esas máquinas virtuales a cada empleado que accede remotamente a ellas para trabajar. Además de Microsoft hay otras plataformas muy conocidas como Citrix WorkSpace, VMware Horizon o la solución Gigas Virtual Desktop con la que esta empresa española también compite en este mercado.

Estamos por tanto ante una serie de soluciones que desde luego plantean una alternativa muy interesante para todas esas empresas que se han visto muy afectadas por la pandemia de coronavirus o que simplemente estaban valorando la puesta en marcha de esa forma de teletrabajo que con los escritorios virtuales cobra mucho más sentido.

Imagen | Unsplash

-
La noticia Virtual Desktop frente a Remote Desktop: esto es lo que diferencia a estas dos grandes tecnologías para conexiones remotas fue publicada originalmente en Xataka por Javier Pastor .

22 Apr 19:08

Un fallo en el software de Apple lleva permitiendo el robo de datos de dispositivos iPad y iPhone durante años

Un fallo en el software de Apple lleva permitiendo el robo de datos de dispositivos iPad y iPhone durante años


Una vulnerabilidad heap overflow presente en la aplicación Mail utilizada por los iPhone y las tabletas iPad hizo posible la extracción de datos no autorizada durante años, en cientos de millones de unidades. Así lo ha desvelado la consultora de seguridad ZecOps, que descubrió el bug investigando un "sofisticado ciberataque" lanzado contra uno de sus clientes hacia finales de 2019. La agencia de noticias Reuters ha podido confirmar a través de un portavoz de Apple la existencia del bug. La firma de la manzana no ha querido hacer más declaraciones al margen de reconocer el fallo e… Leer noticia completa y comentarios »
21 Apr 19:55

¡¡3 Bots para Telegram que te van a encantar!!

by Francisco Ruiz

Hace apenas unas horas que acabamos de publicar un vídeo en el canal de Youtube de Androdisisvídeo, el cual dado su nivel de interés me he visto en la obligación de compartir directamente con todos vosotros aquí en Androidsis Blog.

Un vídeo en el que les presento y enseño a utilizar otrs 3 Bots para Telegram que estoy bastante seguro de que te van a encantar a parte de que te van a ser de muchsísima utilidad.

En el vídeo que te he dejado justo encima de estas líneas, juesto en la cabecera del post, te explico uno a uno, primero como encontrar estos tres bots para Telegram, así como el correcto uso de los mismos.

Un uso que es de lo más interesante e incluso uno de ellos es una sensacional herramienta que nos puede servir como firewall manual para analizar cualquier archivo, aplicación o ejecutable que queramos ya no solo instalar en Android si no que también en Windows.

Gifmsgbot, añade texto a gifs que son trendig topic

Crear gifs personalizados

Un bot con el que te lo va sa pasar de miedo añadiendo tu propio texto personalizado a esos gifs trending topics que circulan a diario por las redes sociales.

Un bot muy fácil de usar, que se puede usar desde el propio chat del bot o que se puede usar en modo inline desde otros chats con tan solo empezar a escribir el nombre del propio bot, o sea @gifmsgbot más el texto que quieres oncuir en tu GIF.

Aquí debajo les dejo un simpático GIF realizado con este sencillo bot para Telegram.

Accede al bot clicando directamente aquí.

APK Manager Bot

APK Manager Bot

El segundo bot que les recomiendo en el vídeo adjunto, es un bot que nos va a servir para buscar y descargar aplicaciones en formato apk de una manera muv pero que muy sencilla, tanto que bastará con chatear con el propio bot mandándole un mensaje con el nombre de la aplicación que estás buscando, necesitas conseguir en formato apk ya sea porqué no la encuentras en el Play Store de Google o porque está restringida en tu país o porqué tienes un terminal como los nuevos Huawei que o cuenta con la instlación de la tiend aoficial de aplicaciones para Android el Play Store de Google.

Puedes acceder al bot e iniciarlo directamente con tan solo clicar en este anlace.

Virus Total Scan Bot

Virus Total Scan Bot

Este es sin duda alguna el Bot más interesante que hoy les traigo para ejecutar en Telegram, y es que al ser Telegram una aplicación multiplataforma, una app en la que contamos clientes para todos los sistemas operativos portátiles y de sobremesa, la vamos a poder utilizar como una especie de Firewall manual para estar a salvo de Addware, Malware y diferentes tipos de archivos malignos que nos puedan llegar a nuestro smartphone, tablet u ordenador personal.

Así con tan solo enviar al propio chat del bot el archivo sospechoso a analizar, ya sea este un documento, un archivo comprimido, un archivo ajecutable para Android o más conocido como un apk, archivo ejecutable para Windows .exe o incluso archivos Tar.gz, PDF, DMG, cualquier tipo de archivo que se le envíe lo va a analizar y darnos el reporte directamente de la Web de Virustotal.com contrastado con hasta 70 motores antivirus diferentes.

Una manera de estar seguro sobretodo cuando recibimos un archivo de dudosa procedencia o de remitentes que no conocemos. Eso si, lo tenemos que enviar al chat del bot a modo de archivo adjunto y por supuesto sin haberlo abierto antes para evitar infectar nuestro dispositivo si es que fuera el caso de ser un archivo infectado.

Accede al bot e inicialo directamente clicando en este enlace.

21 Apr 07:37

FreedomBox, YunoHost y Plex: 3 excelentes plataformas a explorar

by Linux Post Install
FreedomBox, YunoHost y Plex: 3 excelentes plataformas a explorar

FreedomBox, YunoHost y Plex: 3 excelentes plataformas a explorar

Durante estos tiempos de Pandemia por el COVID-19 y de Aislamiento social (Cuarentena), los amantes de la Tecnología, la Informática y la Computación, optan por dedicar su tiempo para investigar, leer, conocer, probar distintas aplicaciones o plataformas de aprendizaje, entretenimiento o servicios varios, para así maximizar o mejorar la productividad o el relajamiento durante estos tiempos de ocio.

Por eso, en esta publicación daremos a conocer 3 interesantes plataformas con alcances y objetivos similares, llamadas FreedomBox, YunoHost y Plex; que seguramente serán útiles y prácticas para muchos durante los tiempos por venir en medio de está posible, larga situación global.

Es de resaltar, que hoy más que nunca, el uso de las plataformas digitales, es decir, de aquellas soluciones en línea (online) que posibilitan la ejecución de una o más tareas (servicios, aplicaciones, programas) diferentes en un mismo lugar a través de internet para satisfacer distintas necesidades, son de vital importancia para mantener a las personas productivas, ocupadas o entretenidas en sus hogares.

Y cada una, suele contar con u ofrecer características, funciones o beneficios diferentes, que ayudan a sus usuarios o miembros, a resolver distintos tipos de problemas o necesidades, de manera automatizada y usando los menos recursos posibles.

Sin embargo, algunas de estas plataformas o soluciones, por ser libres y/ abiertas, pueden ser montadas en los hogares o sitios personales de sus usuarios, para ser compartidas con otros en comunidad, como un servicio gratuito o comercial. Las 3 que exploraremos a continuación están más enfocadas a este estilo.

3 excelentes plataformas a explorar actualmente

FreedomBox

Según el sitio oficial de FreedomBox, la misma es descrita como:

Un servidor privado para no expertos que permite instalar y configurar aplicaciones de servidor con solo unos pocos clics. Funciona con mucho del hardware barato existente o elegido, una conexión a Internet y un consumo de energía común, y está bajo tu control. FreedomBox es Software Libre y de Código Abierto y una parte oficial de Debian, una distribución GNU/Linux bien establecida. El proyecto está apoyado por la Fundación FreedomBox sin fines de lucro.

FreedomBox

Sus desarrolladores prometen estar:

Construyendo un software para dispositivos inteligentes cuyo propósito de ingeniería es el trabajo mancomunadamente para facilitar la libre comunicación entre las personas, de forma segura y protegida, más allá de la ambición del poder más fuerte para penetrarlas. FreedomBox está construyendo un movimiento para descentralizar la web. Nuestros usuarios son los pioneros de este movimiento. Somos parte de la gran comunidad de Software Libre y le damos la bienvenida a todos.

Por lo que en definitiva, FreedomBox debe ser considerado:

Un proyecto global para capacitar a la gente común para reafirmar el control sobre la infraestructura de Internet. Una solución que permite a sus usuarios evitar la minería de datos, la censura y la vigilancia por medio de silos centralizados que caracterizan a la web de hoy en día. Una Plataforma construida mediante servidores web, que sean personales, asequibles y manejables, de modo que un usuario pueda alojar los servicios web necesarios en su casa en un dispositivo de su propiedad, alimentado por software libre en el que pueda confiar.

YunoHost

Según el sitio oficial de YunoHost, la misma es descrita brevemente como:

Un sistema operativo de servidor que pretende hacer accesible el autoalojamiento para todo el mundo.

Aunque, según sus desarrolladores, en más detalle explican que es:

Un sistema operativo que tiene como objetivo la administración más simple de un servidor, y por lo tanto democratizar el auto-alojamiento, mientras se asegura de que se mantenga fiable, seguro, ético y ligero. Es un proyecto de software libre con copyleft mantenido exclusivamente por voluntarios. Técnicamente, puede ser visto como una distribución basada en Debian GNU/Linux y puede ser instalado en muchos tipos de hardware.

YunoHost: Sistema Operativo de Servidor para el autoalojamiento.

Sobre YunoHost, es importante destacar que el mismo es considerado como:

Un software demasiado joven, que no está probado a gran escala y por lo tanto probablemente no está lo suficientemente optimizado para cientos de usuarios al mismo tiempo.

Plex Media Server

Plex Media Server, como su nombre lo indica, es una solución definitiva de Servidor Multimedia para ver o transmitir (compartir) cualquier contenido multimedia entre diferentes tipos de dispositivos. Por ende, es una aplicación con la que podemos convertir cualquier ordenador en un Centro Multimedia (Media Center) mediante contenido digital que insertemos dentro del mismo para ser gestionado.

Plex Media Server: Un Servidor Multimedia en casa

Plex Media Server gestiona dichos archivos multimedia detectándolos y organizándolos bajo diferentes parámetros, tales como secciones o categorías, para mejorar su acceso y consumo. Motivo por el cual, es visto por muchos, como una aplicación capaz de emular la creación de un Netflix casero o personal, el cual dispondrá de un catálogo de contenido multimedia personalizado.

Por último, vale destacar que Plex Media Server es compatible con los más comunes y usados formatos de audio y vídeo. Ademas, de permitir organizar nuestro contenido por tipos de archivos (vídeos, fotos y música), y de cifrar las conexiones externas, en caso de uso o acceso remoto, entre muchísimas otras facilidades y funciones incorporadas. Y posee un servicio en línea, al que se puede acceder de forma gratuita y paga, mediante el siguiente enlace.

Imagen generica para conclusiones de artículos

Conclusión

Esperamos que esta “pequeña y útil publicación” sobre estas 3 excelentes plataformas de servicios web, «FreedomBox, YunoHost y Plex» durante estos tiempos de «Pandemia por el COVID-19» y,  «Aislamiento social (Cuarentena)»; sea de mucho interés y utilidad, para toda la «Comunidad de Software Libre y Código Abierto» y de gran contribución a la difusión del maravilloso, gigantesco y creciente ecosistema de aplicaciones de «GNU/Linux».

Por ahora, si te ha gustado esta «publicación», no dejes de compartirla con otros, en tus sitios web, canales, grupos o comunidades favoritas de redes sociales, preferiblemente libres y abiertas como Mastodon, o seguras y privadas como Telegram.

O simplemente, visita nuestra página de inicio en DesdeLinux o únete al Canal oficial de Telegram de DesdeLinux para leer y votar por esta u otras interesantes publicaciones sobre «Software Libre», «Código Abierto», «GNU/Linux» y demás temas relacionados con la «Informática y la Computación», y la «Actualidad tecnológica».

21 Apr 07:16

Aplicaciones prácticas de Docker en ciberseguridad: Tu servidor Proxy para navegar por la red TOR #DeepWeb #Anonimato #Docker

by noreply@blogger.com (Chema Alonso)
Este posiblemente sea el primer artículo de una serie que vamos a ir publicando llamada “Aplicaciones prácticas de Docker en ciberseguridad”, donde iremos mostraremos recursos, herramientas y soluciones siempre utilizando Docker como elemento principal. La versatilidad y sencillez de esta tecnología nos permite disponer de nuestra propia caja de herramientas, segura, en cualquier momento y en cualquier lugar.

Figura 1: Docker en ciberseguridad: Tu servidor Proxy para navegar por TOR

Esto para alguien que se dedica a la ciberseguridad o incluso para cualquier usuario que quiera probar o utilizar alguna aplicación, es una opción que debemos de tener en cuenta. Y recuerda, si necesitas ayuda para comenzar esta aventura con Docker, en nuestro libro “Docker: SecDevOps” tienes un buen punto de partida para comenzar en este fantástico mundo de los contenedores Docker.

Figura 2: Libro de Docker:SecDevOps

Utilizar un contenedor Docker nos permite encapsular toda la instalación (componentes, dependencias, etc) y aislarlo de nuestro host (por defecto). De esta manera, podemos, por ejemplo, crear un proxy para navegar a través de la red Tor de una manera segura y rápida. Y esto es justo lo que vamos a contarte hoy paso a paso, así que manos al a obra.

Cómo configurar un Proxy Tor

Para ello vamos a crear una imagen con dos herramientas que seguro ya conocéis: anonsurf y tiny proxy. Con anonsurf navegaremos a través de Tor y tiny proxy, actuará pues como su nombre indica: como un Proxy.  Todo ello para que puedas navegar con anonimato a través de la Deep Web o poder hacer labores de Ciberinvestigación.

Figura 3: Deep Web: Privacidad y Anonimato

Lo primero que haremos es crearnos una imagen Docker con dichas herramientas. Para facilitar este proceso, vamos a utilizar una aplicación llamada doig o Docker Image Generator, una aplicación Open Source en lenguaje Go, creada por Tuxotron ;) que tenéis disponible en este enlace.

Figura 4: Doig en GitHub

Esta aplicación permite crear imágenes Docker o ficheros Dockerfile personalizados, simplemente eligiendo las herramientas que necesites. Además de facilitar la tarea de crear la imagen, también es muy instructiva, ya que una vez creada la imagen nos permite exportar el fichero Dockerfile el cual podemos utilizar directamente con el comando docker build o simplemente para ver su funcionamiento. Para instalar doig:
git clone https://github.com/tuxotron/docker-image-generator
cd docker-image-generator
go build
Para crear nuestra imagen para navegar por la red Tor, ejecutamos:
./doig -i myproxy -t anonsurf tinyproxy

Successfully built 49e1529560fe
Successfully tagged myproxy:latest

Tools added to the image:
[-] tinyproxy: When you run Tiny Proxy, by defautl listens on port 8888,
so you will need to map that port to a local port. Ex: -p 8888:8888
[-] anonsurf: You need to run the container in privileged mode
Con la opción -i especificamos el nombre de la imagen y con -t listamos las herramientas que queremos incluir en la misma. Una vez terminado el proceso de construcción de la imagen, vemos que al final nos aparecen dos mensajes:
[-] tinyproxy: When you run Tiny Proxy, by defautl listens on port 8888,
so you will need to map that port to a local port. Ex: -p 8888:8888
Este nos avisa que tiny proxy por defecto escucha por el puerto 8888, y que para usarlo necesitaremos mapear dicho puerto al de nuestro host. Si tuvieras cualquier otra aplicación escuchando por ese puerto, mapéalo a cualquier otro. En Docker se pueden mapear puertos del contenedor al host con la opción -p (--publish) host-interface:puerto-host:puerto-contenedor. Por ejemplo:
docker run -p 127.0.0.1:80:8080
Esto mapearía el puerto 80 de la interfaz 127.0.0.1 al puerto 8080 del contenedor. Si se omite la interfaz, se usaría 0.0.0.0:
docker run -p 80:8080
También se pueden especificar rangos de puertos. Por ejemplo:
docker run -p 80-82:8080-8082
Esto mapearía el puerto 80 del host al puerto 8080, 81 al 8081 y el 82 al 8082.

Existe una segunda forma de mapear los puertos con la opción -P (--publish-all). Esta opción no requiere ningún valor, ya que lo que hace es mapear los puertos que expone el contenedor a puertos aleatorios (por encima del 30000) del host. La forma en que Docker identifica los puertos que expone un contenedor viene por el comando EXPOSE de la imagen.

El segundo mensaje:
[-] anonsurf: You need to run the container in privileged mode
Nos dice que anonsurf requiere permisos elevados, ya que éste necesita hacer cambios en las iptables del contenedor. Aquí podemos darle permisos usando las capacidades o bien ejecutar el contenedor en modo privilegiado. Cuando se ejecuta un contenedor en modo privilegiado, tenemos que asegurarnos bien de las funciones que ejecuta, ya que podría comprometer tu sistema.

Si todo ha marchado bien, siguiendo nuestro ejemplo, deberíamos tener una imagen Docker llamada myproxy. Ahora, para ejecutar nuestro contenedor, lo haremos de la siguiente forma:
docker run -it --rm --privileged -p 8888:8888 myproxy
root@9ca7a81698d3:/opt#
Eso nos sitúa en una shell dentro del contenedor. Ahora todo lo que tenemos que hacer es arrancar anonsurf y tiny proxy:
anonsurf start
* killing dangerous applications
* cleaning some dangerous cache elements
[ i ] Stopping IPv6 services:


[ i ] Starting anonymous mode:

* Tor is not running! starting it for you

* Starting tor daemon... [ OK ]
* Saved iptables rules

* Modified resolv.conf to use Tor and Private Internet Access DNS
* All traffic was redirected through Tor

[ i ] You are under AnonSurf tunnel


root@9ca7a81698d3:/opt# tinyproxy
root@9ca7a81698d3:/opt#
Si el indicas a tu navegador que use nuestro Proxy (localhost:8888), estarás navegando a través de Tor, como puede verse en ese vídeo.


Figura 5: Configurar un Proxy TOR en Docker Parte 1
De esta forma, cada vez que queramos arrancar nuestro Proxy Tor tenemos que arrancar el contenedor y levantar ambos servicios. Si queremos automatizar un poco el proceso y ahorrarnos los pasos de levantar dichos servicios de forma manual, podemos usar la opción -d de doig. Esta opción nos dará el fichero Dockerfile que nos permite construir nuestra imagen. Todo lo que tenemos que hacer es añadir al final de dicho fichero la instrucción CMD para que arranque nuestros servicios. Veamos un ejemplo:
./doig -d -t anonsurf tinyproxy > Dockerfile

cat Dockerfile

FROM ubuntu:18.04

RUN apt update && \
apt install -y software-properties-common git curl p7zip-full wget
whois locales python3 python3-pip upx psmisc && \
add-apt-repository -y ppa:longsleep/golang-backports && \
apt update && \
localedef -i en_US -c -f UTF-8 -A /usr/share/locale/locale.alias en_US.UTF-8
WORKDIR /opt
ENV LANG en_US.utf8
ARG DEBIAN_FRONTEND=noninteractive

RUN apt install -y tinyproxy && sed -i -e '/^Allow /s/^/#/'
-e '/^ConnectPort /s/^/#/'
-e '/^#DisableViaHeader /s/^#//' /etc/tinyproxy/tinyproxy.conf && \
apt install -y iptables &&
git clone https://github.com/Und3rf10w/kali-anonsurf.git
&& cd kali-anonsurf && ./installer.sh && \
rm -rf /var/lib/apt/lists/*
Lo que haremos es añadir al final del fichero Dockerfile es el comando:
CMD anonsurf start; tinyproxy -d
Aquí que le decimos a Docker es que ejecute ese comando cuando arranquemos el contenedor. Fíjate que a tiny proxy le pasamos el parámetro -d para que se ejecute en el foreground. Si no Docker terminaría el contenedor. Una vez hecho esto, ahora sólo nos queda construir la imagen:
docker build -t myproxy
Y arrancar el contenedor:
docker run -d -p 8888:8888 --privileged myproxy
Aquí tenemos que prestar un poco de atención, ya que ya no hemos arrancado el contenedor en modo interactivo (-it) si no en modo no interactivo con la opción -d (detach). De esta forma el contenedor corre en el background. También se podría ejecutar en modo interactivo, pero se nos quedaría la shellenganchada” al contenedor. Aún así, en ambos casos debería de funcionar.


Figura 6: Configurar un Proxy TOR en Docker Parte 2
Recuerda que esta imagen está sólo disponible en tu sistema. Si queremos compartir esta imagen con alguien o simplemente quisieras usarla en otros entornos, sin tener que construir la imagen en cada uno de ellos, puedes subir ésta a un registro de imágenes. Un registro de imágenes es un repositorio donde se pueden almacenar, imágenes.

Dichas imágenes pueden ser públicas o privadas. A las públicas cualquiera puede acceder y a las privadas, pues cómo puedes imaginar, sólo son accesible por aquellos que tengan las credenciales necesarias. En Docker el registro de imágenes por defecto es https://hub.docker.com. Aquí cualquiera se puede crear una cuenta gratuita. Dicha cuenta te permite crear repositorios y subir imágenes a estos. Con la cuenta gratuita, sólo puedes crear un repositorio privado. El resto deben ser públicos.

Para descargar imágenes del https://hub.docker.com, no necesitas ni tener cuenta ni estar autenticado, siempre y cuanto la descarga de las imágenes que hagas sean públicas, pero si necesitas descargar imágenes privados y/o subir imágenes (ya sean privadas o públicas), sí que tienes que tener cuenta y estar autenticado. Con docker login puedes registrar tu cuenta en Docker y una vez hecho eso, ya podrías acceder a tus imágenes privadas y subir imágenes. Para subir una imagen tienes el comando docker push.
docker push usuario/imagen:tag
Es muy importante que crees una imagen, si la vas a subir al registro, que la nombres con tu usuario/nombre-imagen. Esta es la forma en que Docker identifica a quién pertenece la imagen. Por ejemplo, si tu nombre de usuario es usuario1, siguiendo el ejemplo anterior, cuando crees la imagen:
./doig -i usuario1/myproxy -t anonsurf tinyproxy
O si tomas el camino de crear la imagen por tu cuenta, sin doig:
docker build -t usuario1/myproxy
Si por algún motivo se nos olvida ponerle el nombre correcto, tampoco es necesario recrear la imagen, sólo tenemos que dar una etiqueta con el nombre correcto con el comando docker tag:
docker tag myproxy tuxotron/myproxy
Una vez hecho eso ya puedes subir la imagen a nuestro repositorio:
docker push tuxotron/myproxy
The push refers to repository [docker.io/tuxotron/myproxy]
83366880db76: Pushed
3ca184e4825e: Pushed
16542a8fc3be: Mounted from library/ubuntu
6597da2e2e52: Mounted from library/ubuntu
977183d4e999: Mounted from library/ubuntu
c8be1b8f4d60: Mounted from library/ubuntu
latest: digest:
sha256:9fbd8e4c508738ca5ef70211988a3f39734c46ce022d4ed82581139132a9fbc4
size: 1572
Ahora desde cualquier otra máquina (con Docker) sería posible ejecutar el contenedor como hemos visto antes.

Conclusiones

Aunque doig te facilite la vida a la hora crear imágenes, saber cómo funciona y cómo usar Docker te permitirá comprender mejor el funcionamiento interno del proceso de creación de imágenes, posiblemente una de sus partes más importantes. Si creéis que este post ha resultado útil, continuaremos con nuestra serie para ir implementando más herramientas con Docker siempre desde el punto de vista de la seguridad.

Happy Hacking Hackers!!!

Autores:

Fran Ramírez, (@cyberhadesblog) es investigador de seguridad y miembro del equipo de Ideas Locas en CDO en Telefónica, co-autor del libro "Microhistorias: Anécdotas y Curiosidades de la historia de la informática (y los hackers)", del libro "Docker: SecDevOps", también de "Machine Learning aplicado a la Ciberseguridad” además del blog CyberHades. Puedes contactar con Fran Ramirez en MyPublicInbox.


 Contactar con Fran Ramírez en MyPublicInbox

Rafael Troncoso
(@tuxotron) es Senior Software Engineer en SAP Concur, co-autor del libro "Microhistorias: Anécdotas y Curiosidades de la historia de la informática (y los hackers)", del libro "Docker: SecDevOps" además del blog CyberHades. Puedes contactar con Rafael Troncoso en MyPublicInbox.



Contactar con Rafael Troncoso en MyPublicInbox
19 Apr 16:18

Devs engaña: no es sólo un thriller con programadores, es una serie sobre la realidad del universo y los límites de la computación

by Antonio Ortiz

Devs engaña: no es sólo un thriller con programadores, es una serie sobre la realidad del universo y los límites de la computación

Si quisiera convencer a alguien de que le diese una oportunidad a la mejor serie de lo que llevamos de año - no es un acertijo, ya habéis visto la foto y leído el titular, en mi opinión es la serie de Garland para Hulu que se emite en HBO - pondría encima de la mesa dos razones.

La primera es que se trata un thriller de buena factura con una gran corporación tecnológica, una protagonista más audaz que vulnerable, malvados de pasado traumático y un trasfondo de espionaje industrial informático. No es el mejor argumento: amigos y conocidos de redes insisten en que es lenta y, para quien busca un thriller puro, resulta pretenciosa.

Devs es brillante porque son puntos clave en el argumento si somos libres, si hay determinismo, si hay multiverso o si ordenador cuántico puede simular entera la realidad, su pasado y su futuro

Sin la segunda razón quedaría uno arrinconado en el debate. Más bien, no estaría aquí escribiendo sobre Devs. Donde ha conseguido atraparme es en su capacidad de superponer una capa con las teorías físicas que explican el universo, los límites de la computación y el libre albedrío.

No son adornos para reforzar que los personajes son informáticos o científicos, Devs es brillante porque son puntos clave en el argumento: si somos libres, si hay determinismo, si hay multiverso o si ordenador cuántico puede simular entera la realidad, su pasado y su futuro. Tanto la moral como el devenir de los personajes depende de su posición en estos debates. Es en los episodios 7 y 8, los dos últimos, cuando la serie va resolviendo una posición en ellos que desembocará en el final.

En esta pieza recojo de manera incompleta algunas de las distintas teorías y debates que levanta Devs. En ocasiones anticipo elementos de varios episodios y hablo del final. Así que sí, es un artículo con spoilers, avisados quedan. También les comento, si no van a ver la serie, los debates por si mismos son muy disfutables.

Determinismo y el demonio de Laplace

El universo es determinista. Es pagano, neutral y se rige sólo por las leyes de la física

Forest es en la serie el gran emprendedor, el creador de la corporación Amaya. Pronto nos damos cuenta de la veneración que suscita. Como dirá otro personaje más adelante en la serie, el problema de los fundadores de las grandes tecnológicas es que se creen mesías. Es en la fantástica escena con Sergei tiritando, cuando éste sale del edificio en su primer día tras el ascenso, cuando nos damos cuenta de hasta que punto.

'El universo es determinista. Es pagano, neutral y se rige sólo por las leyes de la física [...] Un efecto es siempre el resultado de una causa anterior [..] la vida a pesar de su aparente caos, avanza sobre raíles' Esta última metáfora que se repetirá a lo largo de la serie refleja la interpretación de Forest del universo y la realidad.

Sergie Forest Devs

No es baladí, bajo ese punto de vista construyó Devs y construyó un sistema moral que desde fuera aparece como inhumano. El libre albedrío es una ilusión porque 'no vemos los raíles' y no dudamos de nuestro estado subjetivo. Siguiendo su razonamiento, Sergei no era culpable de ser un espía: hay un hilo de causas (aquí Forest hila fino, las hay biológicas, las hay por el entorno y la educación) que concluyeron en la traición del programador. Sergei no es culpable, como Forest no lo sería de algún hecho clave en su pasado.

Si el demonio conociera la posición y velocidad de las partículas de materia del universo y comprendiera todas las fuerzas a las que están sometidas, podría calcular su posición y velocidad en cualquier momento del pasado o del futuro. Es la conjetura del demonio de Laplace y es justo lo que resulta ser Devs cuando empezamos a entenderla en los episodios siguientes.

Está muy bien explicada por Fran Copenhague en esta pieza en Zenda, que además recoge el debate que vendría después con Einstein y un aspecto clave en el debate en la serie. Ocurre en el episodio cinco en el flashback que introduce Garland, cuando Forest ficha a Katie, su aliada y posterior amante, en la universidad. La profesora discute la superposición cuántica (pueden estar en dos lugares a la vez) y presenta la interpretación de Copenhague de Bohr: es la medición la que afecta al sistema.

Katie Classroom

Hay dos nombres clave en la discusión entre la profesora y Katie: Penrose (que en la serie no es tomado muy en cuenta) y Everett... pero eso nos lleva a otro debate. Lo importante hasta aquí es que Forest y por tanto el proyecto Devs es determinista en el sentido del demonio de Laplace apoyado en la teoría de de Broglie-Bohm, una interpretación de la mecánica cuántica determinista, con variables ocultas y no local comentada aquí por César Tomé. Su corolario: si conseguimos tener toda la información del universo actual y las causas, podríamos saber todo sobre el pasado y el futuro.

Y eso es lo que consigue el ordenador cuántico de Devs, pero en principio con mucho ruido: no se oye nada, las imágenes son borrosas... el guionista logra el efecto de estamparnos la magnitud del logro cuando vemos a los programadores asistir a la crucifixión de Jesús de Nazaret en el Gólgota. No la vemos con claridad, no lo escuchamos, pero está ahí: Devs ha conseguido con mucha información actual y un ordenador cuántico remontar hasta poder ver - o mejor dicho, simular - el pasado en casi 2000 años.

El multiverso de Everett frente al único universo de Forest

En la teoría que abraza de que todo está determinado, él no podía haber hecho nada por salvarla, él no es responsable ni culpable ni había otra posibilidad en el universo más que la muerte de su hija

Pasan los episodios y vamos sabiendo más del pasado y las motivaciones de Forest. La empresa no se llama Amaya y tiene una estatua gigante de una niña por casualidad. Amaya fue la hija de Forest, muerta (¿con seis, cinco años? es difícil adivinar) en un accidente de coche.

Nuestro genio de la física y la informática tiene una relación muy complicada con el trauma. Se dedica a recrear, a volver a ver (en definitiva a simular en un ordenador) el pasado con la niña. Es más, si la teoría que abraza de que todo está determinado es cierta, él no podía haber hecho nada por salvarla, él no es responsable ni culpable ni había otra posibilidad en el universo más que la muerte de su hija. Desde este punto de vista, Forest está muy poco abierto a otras teorías de un libre albedrío fuerte.... o la del multiverso de Everett.

Forest Amaya

Volvemos al episodio cinco, Katie en clase frente a la profesora (invitada a la provocación) cataloga como "bullshit" la interpretación de Von Neumann-Wigner: es la conciencia humana la que provocaría la superposición cuántica. '¿Es una puta coña?' Para Katie no tiene sentido, pero sí lo tiene el multiverso de Everett: si las partículas existen simultáneamente en todos los lugares en los que pueden estar y adoptan simultáneamente también todos sus posibles estados, no hay razón para pensar que la materia a gran escala (que en definitiva está hecha de esas partículas) no esté también en todas partes simultáneamente y adoptando a la vez todas sus posibles configuraciones.

En la superposición cuántica todo el universo cambia según Everett. Se divide 'como si fuera el tronco y las ramas de un árbol infinito' explica la profesora. En ese árbol existen todos los mundos posibles. De ello se deriva que todo lo que puede pasar, todos los futuros y todos los pasados, sucede realmente. Por cada muerte hay un universo en el que la persona sigue viva, por cada lanzamiento de moneda hay un universo en que sale cara y en otro cruz y dentro de ese nuevo hilo temporal se derivan infinitos nuevos universos que se desdoblan

Profesora Devs

"Es determinista y lo avalan las matemáticas" afirma Katie defendiendo una teoría que va en contra de lo que cree y de lo que necesita creer, pero aún así éste la ficha. En la escena saliendo de la universidad asistimos a un recurso narrativo clave en la serie: hay varias Katies, cada una tomando un camino ligeramente diferente al de otra, como si de cada una se fuera a derivar un universo distinto. ¿Refleja una creencia o la serie empieza a tomar partido por el multiverso de Everett?

Katie Multiverso

En el desarrollo de Devs hay un personaje clave, Lindon. Jovencísimo programador, genio brillante entregado al único reto intelectual que parece a su altura, el de construir la máquina capaz de simular a la perfección el pasado y el futuro (algo eso sí que tienen prohibido aunque Katie y Forest lo hacen). En el episodio cuatro da la medida de su genio y su audacia, cambia en Devs los algoritmos que seguían el modelo de Forest (recordemos, un sólo universo determinista) por la de Everett. De repente pasamos de oír ruido a escuchar arameo, a Jesús de Nazaret hablando.

Todos están exultantes, Lindon ha resuelto el gran atasco del proyecto cambiando a una teoría que también es determinista... pero Forest no acepta el multiverso, si es correcto hay otros universos en los que está con su hija y él vive en uno sin ella. Furioso cataloga el logro de Lindon como "truco de magia", no acepta un determinismo basado en que "todo lo que puede pasar, ha pasado y pasará". El Jesús que ha simulado Lindon "no es el Jesús de nuestra historia sino de otra y cada vez que se encienda el sistema saldrá otro distinto". En una decisión que muestra su fría crueldad, Forest despide a Lindon que sale destrozado.

Lyndon Devs

Pero recordemos que el multiverso tenía otra amiga dentro de Devs, Katie. Forest arguye ante ella: la diferencia de lo simulado podría ser un pelo más en Jesús, pero también de que sea de un universo en el que el Papa se convierta al Islam o Camboya fue el primer país en llegar a la Luna. Si no es el mismo Jesús no es la misma Amaya. Katie le enseña lo que resulta de aplicar el modelo de Lindon no sólo al sonido sino también a la imagen: ahí está su hija perfectamente recreada. Quizás es una Amaya con un pelo de diferencia respecto a la original, pero Forest se quiebra y algo puede que esté cambiando en su rechazo al multiverso.

Suicidio cuántico

Es un acto de fe, si hay muchos universos habrá unos en los que caiga y otros en los que no. Katie le está proponiendo un "suicidio cuántico"

Lyndon no aceptará su despido. A pesar de las advertencias del programador más veterano de Devs, Stewart (que a su vez jugará un rol clave en los últimos episodios), visita a Katie para pedir que interceda por él. El joven interpretado por una magnífica Cailee Spaeny se verá expuesto a un reto en el que tendrá que demostrar que realmente apuesta por la teoría del multiverso.

Katie se suma a la impiedad de Forest. Después de todo si el universo es determinista, no hay culpa, es lo que parece derivarse de la moral que adoptan. En una presa ante una barandilla que les separa de una caída de unos cien metros, Katie el invita a saltarla, ponerse al filo en equilibrio sin sujetarse y esperar a ver qué sucede. Que aguante de pie o caiga dependerá de las variaciones cuánticas en aire alrededor.

Lyndon Katie Puente Suicidio Cuantico

Es un acto de fe, si hay muchos universos habrá unos en los que caiga y otros en los que no. Katie le está proponiendo un "suicidio cuántico", algo que explicó en su momento Santiago Campillo. Todo sigue las teorías de Everett, si hay superposición cuántica la hay macroscópica y Lindon morirá en unos universos pero no en otros, y sólo será consciente en los últimos.

La suerte de nuestro joven y bello programador está echada. La trama de Devs sigue con un Lyndon muerto, pero a la vez nos lanza dos guiños: uno es el uso de la narrativa de los varios caminos con superposiciones del actor cuando va a caer. Otro parece definitivo, al principio del episodio vemos el coche que les lleva a la presa y luego a Lyndon, sólo y vivo debajo y no arriba. Ese comienzo es el otro universo, uno en el que Lyndon sobrevive pero se queda solo.

Puente Lyndon

La posibilidad de libre albedrío

Es el episodio siete y la serie parece tomar partido por un multiverso determinista. Sin embargo Katie y Forest no las tienen todas consigo: Devs funciona para predecir el futuro hasta un punto, en el que Lily entra en el edificio, conversa con Forest y acaba apuntándole con una pistola.

Como en este artículo nos hemos desentendido la "trama thriller" hemos hablado poco de la verdadera protagonista de la serie, Lily Chan y su pugna por esclarecer el asesinato de su novio, más tarde por entender su identidad y por último de enfrentarse a Amaya y su dueño. Audaz y valiente, Lily supera el enfrentamiento con el jefe de seguridad sin escrúpulos, Kenton, ayudada por su exnovio y por un personaje que parecía sólo aportar momentos de descanso.

Lily Devs

Pero la gran prueba de Lily será una que no consiguieron pasar los programadores de Devs. Stewart les proyecta el futuro (mejor dicho, lo simula o lo recrea) de ellos mismos en la habitación dentro de unos cinco segundos. Cada uno repetía justo lo que aparecía en pantalla. ¿No podían evitarlo? Bajo la óptica determinista y la hipótesis de que Devs funciona, entonces no, no podían. Pero es una paradoja extraña, la de saber el futuro y no poder cambiarlo.

Nos vamos al final de la serie, Lily ha visto su futuro inmediato: se llevará a Forest a punta de pistola en la cápsula del interior de del edificio de Devs, matará al jefe y luego morirá al caer en un acto en el que aparece involucrado Stewart.

Por aquí hemos comentado algunas veces los esfuerzos de la ciencia por estudiar el libre albedrío o debatido si es posible que una máquina lo tenga, también son muy recomendables las piezas de Sánchez-Migallón en su blog.

De hecho podríamos remontarnos hasta las reflexiones de Spinoza (en esta biografía explican bien sus ideas sobre el tema) siempre asociado a la negación del libre albedrío, cuando tenía una posición algo más ambigua y no tan rotunda. Quizás el pensador más interesante que ha intentado conciliar materialismo/determinismo con la libertad humana ha sido Daniel C. Dennet (aquí un resumen de su posición), pero la serie no sigue sus postulados.

Lily Con Forest

El caso es que la serie roza por momentos el misticismo (como os comenté arriba, este artículo tiene spoilers). Lily cual Eva en el Jardín del Edén se rebela contra lo determinado, se sale de los raíles y toma una decisión moral e inesperada: no aceptando el determinismo ella no quiere ser una asesina, de alguna manera desobedece. Sin embargo Stewart reconducirá la situación ¿quizás lo había visto todo, se espantaría tal vez ante la posibilidad de que todo en Devs se fuera al traste? o es, como dice, ¿para acabar con lo que se había convertido Devs sin importale matar a Lily?

Stewart ya acusó a Forest: Devs funcionó finalmente porque se adaptó al universo real (Lyndon lo hizo) y no a las limitadas obsesiones de su fundador. Es más, el poder de decidir el futuro debería negarse a quienes no conocen el pasado. ¿Sabes quién fue Marco Antonio? le pregunta. Podría leer esta pieza de Rodrigo Alonso y su final, "Ante la negativa de este a llegar a un acuerdo razonable con sus enemigos, Antonio y Cleopatra optaron por el suicidio como la salida más honrosa"

Si la realidad se puede simular, entonces vivimos dentro de una simulación

El argumento de la simulación de Bostrom: si llegamos a tener una fuerza de computación suficiente para simular la realidad, entonces lo más probable es que estemos dentro de una simulación

Hay un gran desorden en esta pieza, lo reconozco. Permítanme volver un poco atrás, al episodio siete en el que Stewart ve con sus compañeros observan la Tierra hace mil millones de años. Han logrado que Devs funcione a la perfección. A otra programadora esto le da mala espina y Stewart extrae las conclusiones que se derivan de lo que han conseguido.

Hasta ese logro pensaban que están trabajando en una simulación desde la realidad, pero ahora las tornas han cambiado. Lo que ven es la realidad concluye Stewart, no es una simulación, por tanto "la caja lo contiene todo", también a todos ellos. "Y dentro de la caja hay otra caja, ad ininitum, ad nauseam". Stewart está articulando la hipótesis de la simulación.

**

**

En esta excelente pieza, Sánchez-Migallón discute el tema "Cómo saber que no vivimos en una simulación de ordenador... si es que podemos saberlo" y explica el argumento de la simulación de Bostrom: si llegamos a tener una fuerza de computación suficiente para simular la realidad, entonces lo más probable es que estemos dentro de una simulación. De hecho podríamos crear muchas y dentro de ellas deberá haber también otras simulaciones. Cuantas más simulaciones existan, tantas más probabilidades tenemos de vivir en una de ellas.

Stewart llega a esa conclusión sin hacerlo explícito, Devs es una simulación perfecta de una realidad materialista y determinista, ergo es la realidad, ergo parece imposible que no vivamos nosotros mismos dentro de una simulación. Además como se ha construido al descubrir que la teoría de Everett del multiverso, entonces el nihilismo al que se abraza el programador parece doblemente justificado: no es que haya inifinitos universos con todos los escenarios posibles, es que además en esas "realidades" hay infinitas simulaciones. Todo lo que hacemos, decidimos, sentimos y hacemos no importa nada. Ad infinitum y ad nauseam (en latín me temo que queda redundante, Stewart)

Devs Stewart

En el final de la serie Garland parece apostar llevar la contra a lo que parecía la base de realidad a la que abona la serie. Lily logra aparentemente un acto de libre voluntad que no pudo ser calculado, aunque también podemos leer el momento como un fallo de programación que luego es reconducido.

El caso es que tanto ella como Forest acaban formando parte de una simulación dentro de Devs, al ser "computerizados" con la conciencia que tenían en el momento de su muerte vivirán una vida como ninguna otra: sabiendo que están en una simulación y que, como hay multiversos, les tocarán vidas terribles y otras maravillosa. Vidas con Amaya o vidas con la hija muerta y la culpa.

Encaja con el discurso de Forest durante la serie, dos veces asegura a otros personajes "todo va a salir bien". Su muerte y su salto a la simulación en una vida mejor forman parte de su plan inicial. "¿Crees que los demás entienden lo que hacemos aquí?" llega a preguntar a Katie. Para él salir bien es acabar en una simulación en la que está en el pasado, antes de la muerte de Katie y en la que eso jamás sucederá. O, aceptando el multiverso, en una simulación en la que la muerte no llegó a ocurrir, él no creó Devs y jamás se predecirá el futuro en un ordenador cuántico.

Es un culto religioso apocalíptico: religión y Ex-Machina

"Forest ¿sabes lo que son los mesías?, son falsos profetas" es lo que le dice Lily al gurú protagonista justo antes de rebelarse ante el determinismo. Más adelante, en el universo simulado en el que acaban ambos reconocerá que su idea no era crear "Devs" sino "Deus". El ordenador cuántico contendrá la realidad, el pasado y el futuro, será omniscente y será capaz de similar infinitas vidas en las que todo está determinado. Forest habría creado a Dios.

Forest Devs

La serie está plagada de referencias religiosas. La obsesión por recrear a Jesús, la música de coro ante la muerte de los protagonistas, el papel de Lyli que desobedece a Dios comiendo del fruto prohibido y eligiendo la libertad de pecar frente a seguir en los raíles. Aunque por su nombre podría ser también Lilit, la primera mujer de Adán en la mitología judía.

Hay también una marcada línea de continuidad con su fenomenal Ex Machina: el creador tecnológico como dios, Adán y Eva en el paraíso, la desobediencia y la libertad. Incluso el juego de palabras invita a conectar ambas obras, Deus ex machina.

No es difícil ver también la empresa Amaya o al menos el círculo más íntimo de Devs como un culto mesiánico-apocalíptico. Su moral desviada - como Stewart acaba porfiando a Katie después de asesinar, "no me culpes, estaba determinado" - su visión de un final de la realidad tal y como la conocemos, el culto al líder.

Un recuerdo de Penrose

Las teorías de Penrose no son muy tenidas en cuenta y es razonable, serían un problema para la trama. En el primer episodio de nuestro podcast sobre inteligencia artificial conseguimos empezar con Ramón López de Mántaras (director del Instituto de Investigación en Inteligencia Artificial y uno de los grandes expertos y pioneros de la IA en España) y en la conversación le planteé la teoría de Penrose, que desde la física cuántica infiere que la conciencia humana no es computable y por tanto no habrá nunca una inteligencia artificial fuerte.

Mantarás dejó caer que bueno, que “La nueva mente del emperador” (el libro que yo sacaba a colación y que me fascinó en mi juventud con una bellísima explicación del teorema de Gödel, está en Amazon) era “muy difícil de entender bien” (aquí no se si concluir si hubo una vez en la que llegué a ser muy listo o que mejor no me flipara con los libros que son para los mayores). El caso es que en Devs tienen a Penrose ahí delante y en ningún momento lo discuten.

No pasa nada, es una serie y no una clase del instituto. Los comentarios que he leído de físicos con respecto a la libertad con que Garland infiere conclusiones de las teorías que aparecen en la serie tampoco la elogian como rigurosa. La ciencia ficción no tiene que serlo, disculpen la obviedad, tiene que ser consistente en las reglas que se da a si misma cada obra. Quien quiera ciencia ficción realista es muy libre de crearla o elegirla. Otros creeremos que es un corsé muy duro para llevar todos los días, en cada obra.

El caso es que una vez metidos en todas estas discusiones sobre el universo, el determinismo, la física o la computabilidad es fácil olvidarse de que no podemos concebir hoy en día el almacenamiento de toda la información del universo y de las causas que lo rigen. Que es muy probable que jamás consigamos una inteligencia artificial y que no podremos predecir el futuro de un universo que, aunque sea determinista, siempre nos parecerá pleno de libre albedrío y aleatoriedad. Forest no podrá programar a Dios.

Imagen portada: Remiwalker

-
La noticia Devs engaña: no es sólo un thriller con programadores, es una serie sobre la realidad del universo y los límites de la computación fue publicada originalmente en Xataka por Antonio Ortiz .

19 Apr 11:11

Investigadores logran extraer datos de un ordenador usando las vibraciones del ventilador

Investigadores logran extraer datos de un ordenador usando las vibraciones del ventilador


No hay ordenador más seguro que aquel que está aislado de una red, pero el más pequeño de los descuidos puede tumbar el más protegido de los sistemas air gapped o estancos. Así lo han demostrado una vez más los investigadores de la universidad israelí Ben Gurion, que tras demostrar el potencial para extraer datos de un ordenador usando la luz del disco duro y convertir auriculares en micrófonos ocultos, han desarrollado un método para robar información de un PC usando el ventilador. La técnica recibe el nombre AiR-ViBeR. Descrito como un canal sísmico encubierto, este método es… Leer noticia completa y comentarios »
16 Apr 18:51

Working from home with your Raspberry Pi

by Alasdair Allan

Raspberry Pi 4 is more than powerful enough to serve as replacement desktop computer while you’re working from home. Or as a secondary desktop to help you out while you’re doing other things, such video conferencing, on your main computer.

The Raspberry Pi 4, Model B

Raspberry Pi 4 Model B

If you’re pulling your Raspberry Pi out of a drawer right now, you should make sure you update it with the latest version of Raspbian; if it’s been a while since you used this Raspberry Pi, you might even want to install a new copy of Raspbian so you know you’re working from a good base image. Fortunately, you can use our new imaging utility, which makes installing a fresh copy of the operating system much easier.

Connecting a monitor, keyboard, and mouse

I normally use my Raspberry Pis headless as a server. But working from home, and using Raspberry Pi as your primary computer, you’re going to need a monitor, keyboard, and mouse.

My Raspberry Pi 4 which I use for video calls perched on the edge of my desk at home

My Raspberry Pi 4, which I use for video calls, perched on the edge of my desk at home

Except for the monitor, the Raspberry Pi Desktop Kit has everything you need to get you going, including a USB-C power supply and all the necessary cables.

Connecting a keyboard and a mouse to your Raspberry Pi just involves plugging them in, although you should probably make sure you plug them into the USB 2 rather than the USB 3 sockets. You can tell these apart by their colour: USB 3 sockets have blue ‘tongues’, while USB 2 sockets have black ones.

USB 2 sockets (left), with USB 3 sockets (middle), and Ethernet (right)

USB 2 sockets (left), USB 3 sockets (middle), and Ethernet socket (right)

Raspberry Pi 4 has two micro HDMI sockets, allowing you to use it with dual monitors if you wish: it supports one 4K screen at 60fps, or two 4K screens at 30fps.

Power (USB-C) socket (left), with two micro-HDMI sockets (middle) and the headphone jack (right)

Power (USB-C) socket (left),  two micro-HDMI sockets (middle), and the headphone jack (right)

You can connect Raspberry Pi to any HDMI monitor (or two) you have in the house — you’ll only need a micro-HDMI to HDMI cable (or two) to do it. There are two of these included in the Desktop Kit.

While the official Raspberry Pi keyboard and mouse are great, I’ve picked up a smaller wireless keyboard and mouse for added convenience and fewer wires.

Setting up wireless networking

Setting up wireless networking on Raspberry Pi can be done from your desktop. Alternatively, you can also set up networking before you boot your Raspberry Pi for the first time by editing a file on the boot partition of your SD card after you burn the operating system onto it.

$ cd /Volumes/boot
$ nano wpa_supplicant.conf

Then add the following lines to the wpa_supplicant.conf file:

country=COUNTRY
ctrl_interface=DIR=/var/run/wpa_supplicant GROUP=netdev
update_config=1
network={
 ssid="SSID"
 psk="PASSWORD"
 key_mgmt=WPA-PSK 
}

COUNTRY should be set the two-letter ISO/IEC alpha2 code for the country in which you are using your Raspberry Pi, e.g.:

  • GB (United Kingdom)
  • FR (France)
  • DE (Germany)
  • US (United States)
  • SE (Sweden)

SSID is the ESSID of your home network, with PASSWORD being the WPA2 password for that network.

It’s important to enter the correct country code in the file, as this will determine which regulatory domain your Raspberry Pi thinks it’s operating in, and therefore which wireless channels it enables on your adaptor.

Setting up email

For many of us, our email lives in our browsers these days, so just navigate to your normal email provider in Chromium and you will be able to use it as normal.

However, you can get your email directly to your Raspberry Pi desktop if you want to do that. Raspbian ships with the Claws Mail client, which supports both POP3 and IMAP standards. Although some ISPs still use the POP3 protocol, IMAP access is the more commonly used, especially when it comes to most of the web-based services like Google’s Gmail.

Using Microsoft Office

Some workplaces will prefer that you use MS Office. Raspbian ships with Libre Office, and there is no native version of Microsoft Office applications that run on Raspberry Pi. However, you can use Office directly in your browser.

Using Microsoft Office in the browser

Using Microsoft Office in the browser

Navigate to office.com and log in with your Microsoft Live account to access the free version; if your company subscribes to Office 365, you should be able to log in with your work username and password.

Using Google Docs and Drive

Designed to be used in web browsers, Google Docs, Sheets, Slides, and Forms work out of the box on Raspberry Pi.

Using Google Docs on the Raspberry Pi

Using Google Docs on the Raspberry Pi

Like all the other Google applications you can access Google Drive directly in your browser from your Raspberry Pi. However if needed you can mount Google Drive using FUSE as part of the file system.

Setting up a VPN client

It’s really easy to find advice and tutorials on how to set up a VPN server for Raspberry Pi. Finding information on how to set up your Raspberry Pi as a VPN client, to allow it to connect to your existing work VPN back in the office, is much harder.

How you get your Raspberry Pi to talk to your office VPN is going to depend on exactly which type of VPN your company uses. So reach out to your company’s IT team to ask them for advice.

Using OpenVPN

The OpenVPN protocol is one of the youngest VPN protocols; it is open-source and generally considered one of the more secure protocols.

To get OpenVPN working on Raspberry Pi, first you’ll need to install the OpenVPN package:

$ sudo apt-get install openvpn

Then you’ll need to create a client.conf configuration file in /etc/openvpn.

client
dev tun

proto udp
remote HOSTNAME PORT

resolv-retry infinite
nobind

user nobody
group nogroup

persist-key
persist-tun

# Path to your certificates (ca.crt, client.crt, and client.key)
ca FILEPATH_CA
cert FILEPATH_CRT
key FILEPATH_KEY

ns-cert-type server
comp-lzo
verb 3

Replace HOSTNAME and PORT with the name and port number of your company’s VPN server, and FILEPATH_CA, FILEPATH_CRT, and FILEPATH_KEY with the fully resolved path to your ca.rt, client.crt, and client.key certificate files; you can obtain this information from your company’s IT people. While these files normally live alongside your configuration file in /etc/openvpn, it isn’t necessary to have them saved there if you really want them to live somewhere else.

Then in a terminal window, type:

$ sudo openvpn /etc/openvpn/client.conf

You should then be connected to your company’s VPN via OpenVPN.

Using PPTP

The Point Tunneling Protocol (PPTP) is an older VPN protocols, and despite known vulnerabilities, it is still one of the more widely used ones because it’s integrated into Windows, macOS, and Linux. If your workplace offers other protocols, such as OpenVPN, I suggest that you choose one of these instead, since they are more secure. However, if you do need to use PPTP, you can do so on Raspberry Pi.

First you’ll need to install the PPTP package:

$ sudo apt-get install pptp-linux

Then go ahead and create a /etc/ppp/peers/pptp-config file to hold your PPTP configuration, and copy and paste the following into the file:

pty "pptp HOSTNAME --nolaunchpppd --debug"
name USERNAME
password PASSWORD
remotename PPTP
require-mppe-128
require-mschap-v2
refuse-eap
refuse-pap
refuse-chap
refuse-mschap
noauth
debug
persist
maxfail 0
defaultroute
replacedefaultroute
usepeerdns

Replace HOSTNAME, USERNAME, and PASSWORD with the name of your company’s VPN server, your own username, and your password.

Then in a terminal window, type:

$ sudo pon /etc/ppp/peers/pptp-config

You should then be connected to your company’s VPN via PPTP.

Using L2TP/IPSec

Because of the lack of confidentiality inherent in the Layer 2 Tunneling Protocol (L2TP), it is normally used in conjunction with another protocol called IPSec. Unfortunately setting up an L2TP/IPSec client on Raspberry Pi is somewhat more involved than using either OpenVPN or PPTP.

If your company supports it, I’d opt to use OpenVPN rather than trying to get L2TP/IPsec up and working on Raspberry Pi.

One alternative approach is to swap out Raspberry Pi’s default wireless management for Network Manager and use the Network Manager widget to setup L2TP/IPSec instead of the default tools. It’s probably easier than trying to set things up via the command line, but if you run into problems, it’s going to be somewhat harder to figure out what is going wrong.

Setting up video conferencing

To get video conferencing working with Raspberry Pi, you’ll need three things: a way to get audio out of Raspberry Pi, a way to get audio in, and a camera so that people can see you.

Adding audio

Setting up audio out for your Raspberry Pi is normally fairly easy. You can just plug a set of headphones into the audio jack, or use the speakers in your computer monitor connected via HDMI, and Raspberry Pi should just figure things out for you.

If you’re not getting sound out of your Raspberry Pi, either via the audio jack or the built-in speakers in your monitor, you might need to set audio output manually using the raspi-config tool.

Unfortunately, Raspberry Pi doesn’t have any native audio input capability. The simplest way to to add audio input is to use a USB microphone. These range from a cheap and cheerful mini USB microphone, designed for basic sound capture, to much more impressive ones designed for podcasting.

Alternatively, you can get a compatible USB sound card, which means that you may be able to use a wired headset and microphone with a standard audio jack. But be warned, most USB sound cards don’t provide any gain for passive mics, so you’ll need to provide a good signal.

Adding a camera

The absolutely easiest way to add a camera to your Raspberry Pi for video conferencing is just to plug in a USB webcam. If your camera offers a built-in microphone, like the Razor Kiyo, and your monitor has built-in speakers, then your camera can provide your audio as well as video.

You can test your USB web camera using the fswebcam package.

If you’ve got a Raspberry Pi Camera Module, it’s possible to use that as well — just make sure you configure the Camera Module using raspi-config. You will however need to have a separate microphone, as the Raspberry Pi Camera Module doesn’t have one built in.

Using Google Hangouts

Google Hangouts works in your browser and doesn’t require a client. You should be able to navigate to hangouts.google.com or click directly on the meeting link in your calendar or email.

Google Hangouts on the Raspberry Pi desktop

Google Hangouts on the Raspberry Pi desktop

However, the first time you open Hangouts, despite giving permission for the app to access your camera and microphone, you might find that it thinks that access has been denied.

To fix this problem, navigate to the padlock🔒icon in your browser’s address bar and click on it. This will open a drop-down menue letting you mark both the Camera and Microphone as ‘Allow’. Select ‘Allow’ for both the camera and microphone, even if they are set to ‘Allow’ already.

The permissions drop down in Google Hangouts

The permissions drop-down menu in Google Hangouts

Close the drop-down menu by clicking on the cross in the top right-hand corner of the dialog window. Doing so add a bar at the top of your window prompting you to ‘Reload’. Click on ‘Reload’. This time, Google Hangouts should be able to access your camera and microphone.

This trick may also be handy for some other video conferencing applications.

Using Zoom

While there isn’t a Zoom desktop client for Raspberry Pi, you can run the Zoom client application, or even host a meeting, directly in the browser.

Open your browser, navigate to join.zoom.us, and enter the meeting ID and password; if you have received an email invitation, you can click directly on the meeting request URL in the email.

Click on the cancel button when prompted to “Open xdg-open” by Zoom

Click on the ‘Cancel’ button when prompted to ‘Open xdg-open’ by Zoom

Then, when you get asked to ‘Open xdg-open?’ in the system dialog that opens, click on ‘Cancel’.

Next click on the ‘click here’ link near the bottom of the page where it says “If nothing prompts from browser, click here to launch the meeting…”. Another ‘Open xdg-open?’ system dialog will open, and you need to click on ‘Cancel’ again.

Then you should see a new “start from your browser” link in really small font at the bottom of the page. Go ahead and click on the this link.

Your Zoom meeting should now start normally in your browser.

Using Skype

There is a Skype web client, which works out of the box on Raspberry Pi. Just navigate to web.skype.com and log in as normal.

Setting up Citrix Workspace (Citrix Receiver)

It’s possible to use Citrix Receiver on your Raspberry Pi, because Citrix offers a prepackaged Linux binary for the ARM architecture that will run without problems on Raspberry Pi.

Download the ‘Full Package (Self-Service Support)’ for Debian Linux, picking the ‘Citrix Workspace app for Linux (ARM HF)’ package.

Then install it by typing into a terminal window:

$ sudo dpkg -I iaclient_19.12.0.19_armhf.deb

You can then find the newly installed client in main desktop menu.

The newly installed Citrix Workspace client

The newly installed Citrix Workspace client

Clicking on the Citrix icon will open a pop-up menu asking you to accept the EULA and then prompting you to add an account. Here you need to enter your work email or the server address provided by your company’s IT people.

Setting up a VNC client

Raspbian includes the VNC Connect client from RealVNC. To open it, navigate to the start menu, click on ‘Internet’, and then on ‘VNC Viewer’.

VNC viewer connected to my Mac mini

VNC Viewer connected to my Mac mini

Type the host name of the computer you’re trying to reach into the address bar of the VNC Viewer. You’ll be prompted for a username and password to authenticate to your remote computer. Your remote desktop should appear in a window. You can access the window setting by mousing over near the middle top of the window where a small drop-down panel will appear.

Wrapping things up

I’d been a freelance journalist for years before joining Raspberry Pi, so I perfected my home-working setup a long time ago; but I’m still finding it incredibly useful having a Raspberry Pi set up at the corner of my desk.

A number of our colleagues here at Pi Towers are are using a Raspberry Pi as their main work-from-home computer, or as a supplementary device for conferencing and file-sharing. We’re also seeing a very large number of people, both in our team and out in the community, using Raspberry Pi as a computer for kids to do homework on (an absolute necessity in so many households where parents are using all the available computers to do their own work on!).

If you’ve found any clever work-from-home workarounds that you’d like to share, please let us know about them below.

The post Working from home with your Raspberry Pi appeared first on Raspberry Pi.