lunes, 11 de julio de 2016

Volocopter: enorme multicóptero de pasajeros revoluciona el sistema de transporte

Según los expertos, este aparato podría cambiar para siempre la forma en que nos desplazamos.



"Por primera vez, el sueño de realizar un vuelo personal, como una especie de rutina diaria, se ha convertido en realidad", han afirmado los ingenieros de la firma E-volo, creadores de un prototipo de helicóptero ligero en un comunicado difundido en su sitio web.
El sueño de realizar un vuelo personal, como una especie rutina diaria, se ha convertido en realidad
E-volo asegura que el gigantesco 'dron' denominado 'Volocopter VC200' nos acerca a "los servicios de taxi aéreo y sistemas de transporte en tercera dimensión".
Justo después de su primer aterrizaje el piloto Alexander Zosel expresó: "El vuelo fue totalmente increíble".

El multicóptero Volocopter VC200, es una aeronave que cuenta con 18 hélices engarzadas en un fuselaje ligero de fibra de carbono. 
Por su diseño, el Volocopter es muy similar a los drones de ocio o de reparto: también es construido con materiales ligeros, tiene múltiples hélices y es fácil de manejar. No obstante, los VC200 cuentan con el tamaño suficiente para llevar a bordo hasta dos personas, una de las cuales debe cumplir con las funciones de piloto.
volocopter.com
Su fabricación ha costado alrededor de 4 millones de euros (unos 5,4 millones de dólares) y puede volar a una velocidad máxima de 70 kilómetros por hora. Según los expertos, este aparato podría cambiar para siempre la forma en que nos desplazamos.
volocopter.com
El precio de este enorme multicóptero, que ha sido certificado por el Comité de Aviación de Alemania y cuyos vuelos son legales, actualmente es de 250.000 euros (unos 338.000 dólares) similar al valor de un coche de lujo, por lo que el Volocopter podría ser popular en la aviación deportiva y de recreo, subraya 'The Economist'.
Aparte de su novedad, el Volocopter VC200 "es más seguro, más sencillo y más limpio que los helicópteros tradicionales. Es un aparato respetuoso con el medio ambiente y libre de emisiones", ya que es propulsado por una batería eléctrica y tiene una autonomía de 20 minutos. 

La batería líquida que funciona con la fuerza de gravedad

El nuevo concepto de batería se basa en los mismos principios fundamentales que el reloj de arena: para generar energía, utiliza la fuerza de gravedad.


Científicos del Instituto Tecnológico de Massachusetts (MIT) de EE.UU. adoptaron un nuevo enfoque para crear una batería líquida. Las partículas fluyen a través de una abertura estrecha desde un depósito al otro. El flujo puede ser revertido al invertir el dispositivo, descrito con más precisión en el estudio publicado en la revista 'Energy and Environmental Science'.
Pese a que el concepto de la estructura de estos tipos de batería no es nuevo, a base de esta tecnología se puede utilizar formulaciones químicas e incluso los mismos componentes presentes en las baterías de iones de litio. En este caso los científicos utilizaron diminutas partículas que pueden ser transportadas por una sustancia líquida.
El invento de los investigadores 'se alimenta' por gravedad y el proceso de la producción de energía puede ser ajustado al cambiar el dispositivo de ángulo, acelerando o frenando el ritmo del flujo, por lo cual la batería es comparada con un reloj de arena.
Yet-Ming Chiang, uno de los investigadores del estudio, señala que el nuevo diseño hará posible la aparición de sistemas de baterías más sencillos y compactos que también podrían ser más baratos. Estos sistemas de almacenamiento podrían incrementar el uso de fuentes de energía intermitentes, como la energía solar o eólica.

lunes, 4 de julio de 2016

Sistemas de gestión de contenidos

Introducción

Los sistemas de gestión de contenidos, mejor conocidos como CMS (por sus siglas en inglés, Content Management System) es un programa que permite crear una estructura de soporte (framework) para la creación y administración de contenidos, principalmente en páginas web, por parte de los participantes.
En el presente documento se ara mención de los sistemas de gestión de contenidos, su clasificación y el uso que se les da. Así como la relación que tienen con las bases de datos y la importancia del uso de estos sistemas.
Los primeros sistemas de administración de contenidos fueron desarrollados por organizaciones que publicaban una gran cantidad de contenido en Internet, y necesitaban de continuas actualizaciones; como revistas en línea, periódicos y publicaciones corporativas.
Hoy en día existen sistemas desarrollados en software libre y software privativo. En ambos casos es necesaria una implantación para adaptar el gestor de contenidos al esquema gráfico y funcionalidades deseadas. Para ciertos gestores existen muchas plantillas disponibles que permite una sencilla implantación de la parte estética por parte de un usuario sin conocimientos de diseño. Los paradigmas de este caso son WordPress y Joomla!, gestores sobre los que hay una gran comunidad de desarrolladores de extensiones (módulos, complementos, plugins, etcétera) y plantillas.




Definición, introducción y conceptos

Definición

CMS son las siglas de Content Management System, que se traduce directamente al español como Sistema Gestor de Contenidos. Como su propio nombre indica, es un sistema que nos permite gestionar contenidos. En líneas generales, un CMS permitiría administrar contenidos en un medio digital y para el caso particular que nos ocupa, un CMS permitiría gestionar los contenidos de una web.
Dicho de otra forma, un CMS es una herramienta que permite a un editor crear, clasificar y publicar cualquier tipo de información en una página web. Generalmente los CMS trabajan contra una base de datos, de modo que el editor simplemente actualiza una base de datos, incluyendo nueva información o editando la existente.
Los sistemas de gestión de contenidos (Content Management Systems o CMS) es un software que se utiliza principalmente para facilitar la gestión de webs, ya sea en Internet o en una intranet, y por eso también son conocidos como gestores de contenido web (Web Content Management o WCM). Hay que tener en cuenta, sin embargo, que la aplicación de los CMS no se limita sólo a las webs.
James Robertson (2003 b) propone una división de la funcionalidad de los sistemas de gestión de contenidos en cuatro categorías: creación de contenido, gestión de contenido, publicación y presentación.

Introducción

Un CMS es un Gestor de Contenidos (Counter Management Systems), una herramienta muy flexible que está centrada especialmente en la gestión de contenidos mediante la web.
En el transcurso de la web 1.0 a la web 2.0 se hizo patente la necesidad de herramientas que permitiesen a los usuarios de internet poder publicar contenidos sin necesidad de tener conocimientos de html, css, lenguajes de programación, o bases de datos. Uno de los elementos que definen la web 2.0 es la participación ciudadana en la creación de dichos contenidos, y los gestores de contenidos son las herramientas que han logrado esta realidad.
Los gestores de contenidos proporcionan un entorno que posibilita la actualización, mantenimiento y ampliación de la web con la colaboración de múltiples usuarios. En cualquier entorno virtual ésta es una característica importante, que además puede ayudar a crear una comunidad cohesionada que participe más de forma conjunta. (García, 2004)

Conceptos

1.      Creación de contenido
Un CMS aporta herramientas para que los creadores sin conocimientos técnicos en páginas web puedan concentrarse en el contenido. Lo más habitual es proporcionar un editor de texto WYSIWYG, en el que el usuario ve el resultado final mientras escribe, al estilo de los editores comerciales, pero con un rango de formatos de texto limitado. Esta limitación tiene sentido, ya que el objetivo es que el creador pueda poner énfasis en algunos puntos, pero sin modificar mucho el estilo general del sitio web.
2.      Gestión de contenido
Los documentos creados se depositan en una base de datos central donde también se guardan el resto de datos de la web, cómo son los datos relativos a los documentos (versiones hechas, autor, fecha de publicación y caducidad, etc.), datos y preferencias de los usuarios, la estructura de la web, etc.
3.      Publicación
Una página aprobada se publica automáticamente cuando llega la fecha de publicación, y cuando caduca se archiva para futuras referencias. En su publicación se aplica el patrón definido para toda la web o para la sección concreta donde está situada, de forma que el resultado final es un sitio web con un aspecto consistente en todas sus páginas.
4.      Presentación
Un CMS puede gestionar automáticamente la accesibilidad del web, con soporte de normas internacionales de accesibilidad como WAI, y adaptarse a las preferencias o necesidades de cada usuario.

Clasificación de contenidos

Los gestores de contenido se pueden clasificar según diferentes criterios:
1.      Por sus características
·         Según el lenguaje de programación empleado, como por ejemplo Active Server Pages, Java, PHP, ASP.NET, Ruby On Rails, Python, PERL
·         Según la licencia: Código abierto o Software propietario
2.      Por su uso y funcionalidad
·         Genéricos. Están pensados para ofrecer servicios de diferentes tipos y pueden usarse tanto para gestionar un blog personal, como un portal, una revista, una tienda,… En esta categoría se incluirían Plone, OpenCMS, MySpace, TYPO3, Mambo, Joomla o Drupal.
·         Blogs. Son los CMS especialmente creados para la gestión de diarios personales. Son CMS de blogs WordPress, B2Evolution, Movable Type, Blogger.
·         Wikis. Los wikis son un tipo de CMS pensados para que varios usuarios creen un documento o un conjunto de documentos de manera comunitaria. Mantiene un registro de modificaciones, lo cual permite ver en cada momento que cambios ha hecho cada usuario. MediaWiki es seguramente el CMS de este tipo más conocido, por ser el que se usa en la Wikipedia, aunque también son dignos de mención TikiWiki, PikiWiki o PmWiki.
·         Foros. Estos CMS permiten la gestión de foros de discusión. Son conocidos phpBB, PunBB, MyBB o SMF.
·         Galerías de imágenes. Permiten subir y gestionar imágenes, crear álbumes, enviar fotos a imprimir, ejemplos clásicos son Gallery, Flickr, PicasaWeb o Coppermine.
·         Comercio electrónico. Son CMS especializados en la gestión de sitios que se dedican a la compra-venta de productos a través de la web. Algunos ejemplos son osCommerce, Magento o PrestaShop.
·         Enseñanza; plataforma para contenidos de enseñanza on-line.
·         Comercio electrónico; plataforma de gestión de usuarios, catálogo, compras y pagos.
·         Publicaciones digitales.
·         Difusión de contenido multimedia.

Arquitectura de CMS

Un sistema de administración de contenidos siempre funciona en el servidor web en el que esté alojado el portal. El acceso al gestor se realiza generalmente a través del navegador web, y se puede requerir el uso de FTP para subir contenido.
Cuando un usuario accede a una URL, se ejecuta en el servidor esa llamada, se selecciona el esquema gráfico y se introducen los datos que correspondan de la base de datos. La página se genera dinámicamente para ese usuario, el código HTML final se genera en esa llamada. Normalmente se predefinen en el gestor varios formatos de presentación de contenido para darle la flexibilidad a la hora de crear nuevos apartados e informaciones.
El Servidor Web, que será el único en contacto directo con los usuarios, aceptando peticiones de estos. Se encargue de atender las peticiones a recursos estáticos (imágenes, documentos HTML, CSS, JavaScript, etc.) y, en su caso, de redirigir las peticiones a recursos dinámicos (páginas JSP) hacia el Servidor de Aplicaciones. Como servidor web se selecciona a Apache HTTPD Server.
El Servidor de Aplicaciones, que alberga aplicaciones web dinámicas. Se encarga de recibir peticiones que redirige a la aplicación (también Llamada contexto) adecuada.
OpenCms se ejecuta dentro de este servidor como una aplicación web más. Como servidor de aplicaciones se selecciona a Apache Tomcat.
Las peticiones sobre contenidos llegan a OpenCms. Este procesa las reglas de negocio, y accede al repositorio para gestionar los contenidos necesarios y, de esta forma, llevar a cabo las funcionalidades requeridas.
Repositorio de contenidos alberga tantos contenidos estructurados, No estructurados, y reglas de negocio procesadas por el OpenCms.
Un sistema de administración de contenidos siempre funciona en el servidor web en el que esté alojado el portal. El acceso al gestor se realiza generalmente a través del navegador web, y se puede requerir el uso de FTP para subir contenido.
Cuando un usuario accede a una URL, se ejecuta en el servidor esa llamada, se selecciona el esquema gráfico y se introducen los datos que correspondan de la base de datos. La página se genera dinámicamente para ese usuario, el código HTML final se genera en esa llamada. Normalmente se predefinen en el gestor varios formatos de presentación de contenido para darle la flexibilidad a la hora de crear nuevos apartados e informaciones.
El Servidor Web, que será el único en contacto directo con los usuarios, aceptando peticiones de estos. Se encargue de atender las peticiones a recursos estáticos (imágenes, documentos HTML, CSS, JavaScript, etc.) y, en su caso, de redirigir las peticiones a recursos dinámicos (páginas JSP) hacia el Servidor de Aplicaciones. Como servidor web se selecciona a Apache HTTPD Server.


A nivel operativo de trabajo lo fundamental de un CMS es que dispone de dos partes.
1.      La parte web pública. Es la página web como tal que ven las personas que acceden a ella.
2.      La parte web privada.  Desde cualquier lugar con conexión a internet y un navegador con un usuario y contraseña podemos acceder a la parte interna “de trabajo” del gestor de contenidos. Allí según el perfil que tengamos (es decir quien seamos y que permisos para tocar cosas tenemos) mediante unas página web de uso interno llamadas “maquetadores” podemos actualizar el contenido de la página web pública, modificarlo y corregirlo, crear contenido nuevo.
Si tenemos el nivel de permisos adecuado para ello disponemos también de un panel de control para cambiar configuraciones del sitio web, el diseño, gestionar a los usuarios del sistema, etc…
A nivel técnico un gestor de contenidos es “un programa” que necesita unos requerimientos específicos para funcionar. Igual que un programa de ordenador necesita de un sistema operativo instalado previamente en el ordenador y no sirve la mayoría de veces para otros sistemas operativos (windows, linux y mac por ejemplo) un CMS necesita que el servidor (un ordenador con unas características de hardware y sistema operativo especiales) tenga instalados previamente unos programas que necesita para funcionar.
Estos requerimientos previos son a grandes rasgos son el estándar de un servidor de páginas web. Software de servidor web, lenguajes y bibliotecas de programación típica de web y un sistema de bases de datos. De forma muy general y mayoritariamente este software necesario para que funcione un CMS se abrevia con las siglas LAMP o WAMP.
Un CMS a nivel de su estructura se distingue en 3 capas.
1.      La capa de la base de datos.
La base de datos tiene guardado todo el contenido que se ha escrito en la web, así como muchos de los parámetros de configuración, categorías, organización, usuarios y contraseñas. Los sistemas de bases de datos más habituales de los CMS suelen ser MySql o Postgre.
2.      La capa de programación.
Está contenida en los ficheros de la web. Lo que hacen estos ficheros al ejecutarse es solicitar la información que el usuario ha pedido desde el navegador de internet y extraerla para mostrarla al usuario ordenado y estructurado “insertándola” en los lugares que le corresponde dentro del diseño de la página web. El lenguaje de programación más habitual suele ser Php.
3.      La capa de diseño.
Reside también en algunos ficheros. Define el diseño de la web, es decir “la maqueta o dibujo” sobre la que se insertara el contenido que la programación se encarga de extraer de la base de datos. El lenguaje de programación y maquetación de la web es el Html y Css (complementado en ocasiones con javascript y AJAX).
Habitualmente para la mayoría de CMS llevan un diseño básico establecido y disponen de plantillas (gratuitas o de pago) de variados diseños que se pueden “cargar” para sustituir a la básica.
Cuando vemos la página web en un navegador no vemos estas capas diferenciadas, no vemos la base de datos, ni la programación, ni el código fuente del diseño, lo que vemos es la suma de todas ellas, el resultado final. Es lo que se llama la renderización de la página web.
Por la parte incomoda, esta estructura de capas hace que tengamos que para tener una buena copia de seguridad tengamos que tener copia de todas ellas. Por la parte positiva tener esta estructura técnica de capas permite se puede trabajar a la vez independientemente sobre cada una de ellas la programación y el diseño independientemente sin afectar a la otra y por tanto trabajar a la vez y en paralelo.
Es por ello en la definición se dice que en pocos minutos instalando o cargando una nueva plantilla de diseño se puede tener una web completamente diferente visualmente con el mismo contenido que la anterior.



Tipos de CMS

Por sus características

·         Según el lenguaje de programación empleado, como por ejemplo Active Server Pages, Java, PHP, ASP.NET, Ruby On Rails, Python.

Según la licencia

Código abierto (como MySQL) o Software privativo.

Por su uso y funcionalidad

·         Blogs: pensados para páginas personales (i.e. Blogger, WordPress, LifeType).
·         Foros: pensados para compartir opiniones (i.e. phpBB, Simple Machines Forum, MyBB).
·         Wikis: pensados para el desarrollo colaborativo (i.e. Wikipedia, MediaWiki).
·         Enseñanza: Sistemas de Gestión de Contenidos para el Aprendizaje o LCMS (i.e. ATutor, Sakai, Moodle).      
·         Comercio electrónico: plataforma de gestión de usuarios, catálogo, compras y pagos (i.e. Magento, Opencart, Zen cart, osCommerce).
·         Publicaciones digitales: i.e. Public Knowledge Project con sus respectivos Open Journal System, Open Conference System, etc.
·         Difusión de contenido multimedia.
Y por último habría que añadir los pensados para realizar portales y sedes Web (i.e. Drupal, Joomla, Xoops, Plone).
A esta clasificación se le podrían añadir otras categorías, acudiendo a los apuntes de la asignatura Gestión de Contenidos:

Según la base de datos que utilizan

MySQL, Access, etc.

Según el entorno de trabajo

Entorno Web o entorno “no Web” (de escritorio).

Según el estilo de uso

·         Servicio comercial.
·         Servicio de comunidad (el soporte depende de la comunidad de desarrolladores y usuarios).
·         Hospedado (Software as as Service): Microsoft Office Live, Blogger, el mismo WordPress, etc.



Modelado y aplicación de CMS

Entre los sistemas de gestión documental más conocidos se encuentran los productos y aplicaciones de FileMaker, Knosys, el software CDS/ISIS desarrollado por la UNESCO o los productos de la compañía Inmagic, que cuenta con varias soluciones como DB/TextWorks, DB/Text WebPublisher o DBText Intranet Spider. Todos estos sistemas cuentan con pasarelas web para permitir las consultas, desde el navegador web, a las bases de datos creadas por ellos. Es de destacar también el software multilingüe de fuente abierta Greenstone Digital Libraries (http://www.greenstone.org/cgi-bin/library) que sirve para crear y distribuir colecciones de bibliotecas digitales.
También existen otra serie de herramientas muy sencillas y menos conocidas, algunas de ellas de libre disposición, pero que cuentan con un gran potencial para gestionar documentos en diferentes morfologías de información: texto, imágenes, audio, etc. Las más potentes sirven también para gestionar sitios web y permiten clasificar los documentos, indizarlos, hacer tablas de contenido, realizar búsquedas, etc. Algunos incluyen hasta diccionarios y tesauros.
No cabe duda de que la forma hipertextual es en sí misma una herramienta para organizar y gestionar la información. A muchos de estos programas también se les denomina herramientas de autor, porque sirven para gestionar a pequeña escala nuestros propios hiperdocumentos.
Con la aparición de la llamada Web 2.0, han proliferado los Sistemas de gestión de contenidos o Content Management System (CMS). Estas herramientas permiten la creación y administración de contenidos de páginas web. Se trata de una interfaz que controla una o varias bases de datos donde se aloja el contenido del sitio web. Hay gestores para páginas web, foros, blogs, wikis, etc. Estos sistemas permiten tratar de manera separada el diseño del contenido. Una relación exhaustiva de estas herramientas se ofrece en esta tesis en Sistemas de Gestión de Hipertextos para la Web 2.0.



Aplicaciones

1.      Vignette
Es un sistema CMS comercial, que dicho sea de paso, debe ser bastante caro. Es importante comentarlo por ser el primer sistema CMS comercial que apareció en el mercado. Soluciones de Gestión de Experiencia del Cliente. Generar el tiempo de lanzamiento al mercado mejorado, dando a sus clientes, empleados y socios de canal rico, personalizado y atractivas experiencias cada vez. No todo el Sistema de Gestión de Contenidos (CMS) está diseñado para hacer frente a la complejidad y la velocidad que las organizaciones necesitan hoy en día. Para prosperar, debes pensar móvil primero, ser valientes, hacer cumplir consistencia de la marca, y participar en la comunicación social a través de sitios web impulsados ​​por la comunidad. Soluciones OpenText están diseñados para ayudar en los esfuerzos de marketing digital, lo que le permite amplificar su estrategia de marketing online, gestiona tu marca global, abrazar a las empresas sociales, y producir comunicaciones con los clientes efectivos.
2.      Drupal
Uno de los CMS más populares, en este caso gratuito y open source. Creado en PHP y con posibilidad de utilizar varias bases de datos distintas, por defecto MySQL.
3.      Mambo
Un sistema CMS libre y gratuito, creado en PHP.
4.      Joomla!
Es un CMS de código libre, también creado en PHP. Surge como una mejora o ampliación de Mambo.
5.      Wordpress
El CMS para la creación de blogs por excelencia. El más utilizado y el mejor valorados, también creados en PHP y gratuitos.
6.      OsCommerce
El sistema gestor de contenidos de código libre, para la creación de una tienda más conocido y utilizado.

Conclusiones

1.      Un sistema de gestión de contenidos consiste en una interfaz que controla una o varias bases de datos donde se aloja el contenido del sitio web.
2.      La interfaz del CMS es independiente del contenido que se aloje en el sitio web, por lo que si se modifica la interfaz no afecta el contenido o si se modifica el contenido no afecta la visualización de la página.
3.      Mediante el CMS se pueden modificar o eliminar bases de datos dependiendo al usuario que administre el sitio web.
4.      El uso de un servidor FTP es útil para subir el contenido en la base de datos o el sitio web sobre el que se trabaje.
5.      Los contenidos de un sistema de gestión de contenidos se clasifican por sus características que son el lenguaje de programación y la licencia, el segundo es por su oso y funcionalidad, es decir, para páginas personales, para compartir información, para cuestiones laborales, etc.
6.      Un CMS está compuesta por el servidor web que envía y recibe información o datos a la nuve, esta se encarga de enviar y recibir información a cada ordenador que la solicite.
7.      El Servidor Web es el único en contacto directo con los usuarios, aceptando peticiones de estos. Este se encarga de atender las peticiones a recursos estáticos. Si hay peticiones a recursos dinámicos la petición es enviada al servidor de aplicaciones el cual proveerá de todo lo necesario según se encuentre disponible.



Referencias

García, J. (2009 de Noviembre de 2004). Gestión de contenidos, tecnólogias. Recuperado el 05 de Diciembre de 2015, de Introducción a los Sistemas de Gestión de Contenidos (CMS) de código abierto: http://mosaic.uoc.edu/2004/11/29/introduccion-a-los-sistemas-de-gestion-de-contenidos-cms-de-codigo-abierto/
Martínez, S. (14 de Octubre de 2014). SlideShare. Recuperado el 07 de Diciembre de 2015, de SISTEMA DE GESTIÓN DE CONTENIDOS (CMS): http://es.slideshare.net/SandraMartinezG/cms-40422247
Primo, D. (20 de Enero de 2008). SlideShare. Recuperado el 07 de Diciembre de 2015, de Introducción a los sistemas de gestion de contenidos (CMS): http://es.slideshare.net/delineas/introduccin-a-los-sistemas-de-gestion-de-contenidos-cms?related=1
Tópicos de bases de datos. (10 de Diciembre de 2013). Recuperado el 05 de Diciembre de 2015, de Sistema de gestión de contenido: http://tbdmontalvogil.blogspot.mx/2013/12/unidad-4-sistema-de-gestion-de-contenido.html



¡Bye, Bye wifi! Bienvenida Li-Fi


La tecnología Li-Fi consigue ser cien veces más veloz que el wifi en las pruebas de laboratorio y apunta a ser ya una realidad.



Una forma de comunicación inalámbrica parecida al wifi irrumpirá con mucha fuerza en nuestra vida cotidiana mucho antes de lo que algunos creen. En lugar de ondas de radio, la Li-Fi utiliza pulsos de luz intermitentes e imperceptibles al ojo humano, que permiten transmitir una mayor cantidad de información y de manera más eficiente. La tecnología Li-Fi, que utiliza la luz visible entre 400 y 800 terahertzios (THz), transmite mensajes a través de código binario. De este modo, se ha llegado a alcanzar en el laboratorio una velocidad de 224 GB por segundo, lo que equivaldría a descargarse dieciocho películas de 1,5 GB en ese tiempo.
El término Li-Fi lo acuñó en 2011 Harald Haas, profesor de Ingeniería en la Universidad de Edimburgo y uno de los mayores impulsores de esta nueva forma de conexión que utiliza luces de led de alta potencia en el espectro cercano al ultravioleta. Los pulsos de luz, que duran nanosegundos y que transmiten los datos gracias a unos moduladores que se adaptan a cualquier bombilla de led, hacen que éstas, además de iluminar, puedan hacer las veces de router para nuestros dispositivos.
Esto es así siempre que previamente les hayamos colocado a estos unos fotodiodos que recogen los cambios de luz y los transforman en información. Curiosamente una de las ventajas de esta tecnología es una aparente debilidad: no puede traspasar las paredes. Su alcance, por tanto, resulta menor que el del wifi en interiores, pero este detalle permite que las comunicaciones resulten muy seguras: salvo que un atacante tenga una línea de visión clara, no podría saber qué se está transmitiendo. Una de las aplicaciones para Li-Fi podría encontrarse en el llamado internet de las cosas.

Hoy en día, los objetos inteligentes para el hogar se conectan a la red wifi de casa o se comunican entre sí por Bluetooth. Conforme su número aumente, será cada vez más común que se produzcan interferencias. El Li-Fi podría ser una de las soluciones para que los dispositivos dentro de la misma habitación puedan comunicarse entre sí sin problemas. Hoy está siendo probado en oficinas y entornos industriales en Tallin (Estonia) con una velocidad que alcanza el 1GB/s.

Finalidad de la evaluación de redes

La Auditoria de Red le ofrece las herramientas necesarias para determinar la eficacia con que su red respalda sus operaciones empresariales y el grado de satisfacción del cliente sin que influyan cuestiones políticas internas.
Reducción de costes, identifique gastos encubiertos mediante un inventario rápido y Preciso. Prepárese para la introducción de un sólido servicio de gestión de activos con el fin de optimizar los niveles de servicio y de dotación de personal, y de reducir costes.
Mayor productividad, mejore el funcionamiento de su red, identificando los problemas, aislando los errores para proceder a su eliminación.
Preparado para el cambio, la planificación anticipada significa que sus sistemas TI pueden estar preparados para el cambio a e-Business. Realizamos un seguimiento permanente de las tendencias de red e identificamos las oportunidades. Una evaluación centrada del perímetro de seguridad de red y de la seguridad central interna nos revelará si su red está preparada para las nuevas comunicaciones y aplicaciones e-Business.
Gane tiempo, su empresa puede ahorrar un tiempo muy valioso gracias a una planificación óptima y a un proceso de toma de decisiones basado en una información más precisa. El objetivo de una auditoria de redes es determinar la situación actual, fortalezas y debilidades, de una red de datos. Una empresa necesita saber en qué situación está la red para tomar decisiones sustentadas de reemplazo o mejora.


Requerimientos para la evaluación de redes

Dentro de la evaluación de redes se debe tener en cuenta la necesidad de proteger la integridad y confidencialidad de la información y el uso de sus activos, para determinar el grado de confianza que se puede depositar en un sistema informático existen criterios y normas de seguridad, pero, si se requiere mejorar el nivel de seguridad que existe en una red, se tiene que realizar una evaluación de seguridad, con lo cuál se puede determinar el estado de un sistema y los cambios que se pueden realizar para mejorar dicho estado. Para realizar una evaluación de seguridad se pueden hacer pruebas de vulnerabilidad que incluyen el análisis de una red y sus políticas y controles de seguridad; pruebas de seguridad, en las que se realizan auditorias de seguridad, escaneo de vulnerabilidades y pruebas de penetración, y finalmente, el reporte de las vulnerabilidades encontradas y las sugerencias para la implementación de mejoras.

  • Se determinara la ubicación geográfica
  • Arquitectura y configuración de hardware
  • Los auditores, en su evaluación inicial deben tener en su poder la distribución e interconexión de los equipos.
  • Inventario de hardware
  • Comunicación y redes de comunicación
  • Recursos materiales hardware.


Administración 

Se puede decir que los controles de acceso a la información constituyen uno de los parámetros más importantes a la hora de administrar seguridad. Con ellos se determina quién puede acceder a qué datos, indicando a cada persona un tipo de acceso (perfil) específico. Para este cometido se utilizan diferentes técnicas que se diferencian significativamente en términos de precisión, sofisticación y costos. Se utilizan por ejemplo, palabras claves, algoritmos de inscripción, listas de controles de acceso, limitaciones por ubicación de la información, horarios, etc. Una vez determinados los controles de accesos a la información, se hace imprescindible efectuar una eficiente administración de la seguridad, lo que implica la implementación, seguimiento, pruebas y modificaciones sobre los perfiles de los usuarios de los sistemas.
Deben realizarse evaluaciones periódicas sobre el nivel de cumplimiento de los procesos relacionados con la administración de sistemas y debe de evaluarse si estos cubren las necesidades de la empresa de manera adecuada y dentro de los períodos preestablecidos. Las políticas y normas de seguridad de telecomunicaciones deben estar formalmente definidas, documentadas y aprobadas. Adicionalmente, deberán contener objetivos de control de alto nivel que definan los requerimientos de administración de seguridad en redes.
Al momento de tener el informe de la auditoría de telecomunicaciones se deberá de implementar las recomendaciones planteadas para subsanar las debilidades de control interno encontradas, por el auditor, y el área de informática deberá preocuparse en el futuro en detectar e incorporar las nuevas soluciones que vayan apareciendo respecto a vulnerabilidades correspondientes al área de telecomunicaciones.

La auditoría de comunicaciones es el proceso mediante el cual la analista determina si la organización está comunicando eficazmente su identidad y estrategia. Determinar la eficacia con que se comunican la identidad y la estructura corporativa. Este proceso es la auditoría visual o de comunicación, que incluye dos objetivos:
1. Cotejar, controlar y evaluar todas las formas de comunicación, externa y interna (así, el concretar la identidad trata de establecer la lógica y la coherencia de las comunicaciones)
2. Fase que se basa en las investigaciones que se realizan entre los diversos públicos de la empresa para establecer el impacto de todas las comunicaciones de la empresa sobre las percepciones que dichos públicos tienen sobre ella incluye la comparación, el control y la valoración de todas las formas de comunicación, impresa y visual. Realización de una auditoria:

  • Comunicaciones impresas externas. La auditoría de comunicaciones. Se inicia recogiendo todas las formas de comunicación impresa y visual, incluyendo la memoria anual, folletos descriptivos de producción, cartas membretada das o citas de los consejeros delegados.
  • Comunicaciones internas Publicaciones a los empleados. También anuncios públicos, conferencias y seminarios
  • Comunicaciones y percepciones. (p.ej. Detalles de la vida diaria de la empresa des de la forma en que se contesta al teléfono hasta la forma en que actúan los vendedores y la indumentaria del personal)Estos detalles reflejan el sistema de valores vigente en la empresa.



Instalación 
El costo de comunicación para una organización puede ser significativo. Los gastos típicos de instalación de telecomunicaciones incluyen lo siguiente:

  • Las instalaciones de transmisión
  • Líneas telefónicas con fórmulas de valuación fijas.
  • Satélite y canales de microonda.-Radio de canal fijo y celular (Instalaciones de comunicaciones limitadas por una distancia (radio) determinada).
  • Fibra óptica, cable de cobre, cable coaxial y cable de par trenzado.
  • Equipo-Terminales.
  • Modems (Modulador - Demodulador).
  • Controladores.
  • Equipo de conmutación.
  • Cableado local.
  • Centros de control de la red.
  • Convertidores de protocolo.
  • Puentes
  • Puertas de acceso.

Software: 


  • Paquetes de Seguridad.
  • Programas de cifrado (criptografía) / descifrado
  • Software de monitoreo de la red.
  • Software de control de la red.
  • Software de conversión de protocolos.
  • Software de administración de la red (Eje., administración de activos, facturación)
  • Operadores de Intercambio Privado de Ramificación (PBX)


Operación y seguridad

Las aplicaciones se hacen disponibles a los usuarios mediante una red de telecomunicaciones, y los vínculos o nexos de las telecomunicaciones pueden ser una parte integral de una aplicación usando el procesamiento distribuido o cooperativo.
Los riesgos de las aplicaciones incluyen acceso no autorizado a los datos confidenciales, manipulación maliciosa de datos, interrupción de operaciones de negocio, e información inexacta o incompleta. Las aplicaciones que son en línea, altamente interactivas y caracterizadas por tiempos de respuesta rápido, comúnmente requieren controles adiciónales de telecomunicaciones.

Mientras se realiza el análisis de una red de telecomunicaciones pueden surgir una múltiple cantidad de riesgos tanto de costos y de comunicación entre los cuales se encuentran los siguientes:

  • La facturación del porteador puede ser incorrecta debido a la complejidad de los procedimientos de tarifas y a los procedimientos de facturación usados por los porteadores.
  • La no disponibilidad de servicio o la pérdida de datos pueden interrumpir negocios y dañar, destruir, o desconectar los medios de transmisión.
  • Los costos de operación de la red no pueden ser totalmente proyectados al tomar la decisión del negocio.
  • La red puede no apoyar la actividad del negocio o no ser fácil de usar.
  • Los costos de la red pueden ser demasiado altos para la actividad del negocio.
  • La red puede no ser entregada de una manera oportuna, causando costos excesivos y pérdidas en el negocio.

Ante tales riesgos y situaciones se deben de emplear técnicas o métodos que permitían mitigar tales riesgos la organización debe desarrollar cuidadosamente un plan estratégico integrado a largo plazo.
Un riesgo clave para una red son los usuarios no autorizados que logran acceso a la red y tratan de ejecutar aplicaciones o autorizar usuarios para conseguir acceso a las aplicaciones para las cuales ellos no están autorizados. Los riesgos generales planteados para una red, por un usuario no autorizado, incluyen el uso no autorizado de los recursos dé la red para transportar datos, modificaciones o eliminación de datos, revelación de información y uso de los recursos de la red para negar la utilización legítima de los servicios.

Personal responsable del área


  • Director / Gerente de Informática 
  • Subgerentes de informática 
  • Asistentes de informática 
  • Técnicos de soporte externo
  • El administrador o gerente de telecomunicaciones, quien comúnmente controla los aspectos planificadores, presupuestarios y operacionales de comunicaciones.
  • El administrador o gerente de la red, quien típicamente administra el personal y el equipó.
  • El administrador o gerente de voz, quien administra el equipo telefónico, el informe de llamadas, la facturación, instalación de teléfonos, etc.
  • El administrador o gerente de aplicaciones de comunicaciones, quien es responsable de hacer los requerimientos funcionales de las aplicaciones en la realidad técnica.
  • Técnicos
  • Instaladores.
  • Equipo técnico de control de la red.
  • Equipo técnico (personal) de escritorio de ayuda al usuario.
  • Analistas de la red.
  • Operadores de Intercambio Privado de Ramificación (PBX)



Determinar el nivel de aplicación de alguna de las normas consideradas para la auditoria de redes

Planificación
La primera norma de auditoría de tecnologías de la información y la comunicación es:
“La auditoría de tecnologías de la información y la comunicación se debe planificar en forma metodológica, para alcanzar eficientemente los objetivos de la misma.” Se diseñarán programas de trabajo que se aplicarán durante la ejecución del trabajo de campo, para el efecto, en función a la evaluación del control interno y evaluación de riesgos, se determinará la naturaleza, oportunidad y extensión de los procedimientos de auditoría que se aplicarán para la obtención de evidencia competente y suficiente. Como resultado del proceso de planificación de la auditoría de tecnologías de la información y la comunicación, se debe elaborar el Memorándum de Planificación de Auditoría, el cual debe contener todos los aspectos detallados en la presente norma y aquéllos que se consideren necesarios incluir, y que tengan relación con los objetivos del examen, el alcance y la metodología.

Supervisión
La segunda norma de auditoría de tecnologías de la información y la comunicación es:
“Personal competente debe supervisar sistemática y oportunamente el trabajo realizado por los profesionales que conformen el equipo de auditoría.” La supervisión implica dirigir los esfuerzos del equipo de auditores gubernamentales hacia la consecución de los objetivos de auditoría.

Control interno
La tercera norma de auditoría de tecnologías de la información y la comunicación es: “Debe obtenerse una comprensión del control interno relacionado con el objeto del examen.”
Se debe evaluar el control interno para identificar las áreas críticas que requieren un examen profundo y determinar su grado de confiabilidad a fin de establecer la naturaleza, alcance y oportunidad de los procedimientos de auditoría a aplicar. Comprende el plan de organización, incluyendo la Unidad de Auditoría Interna, todos los métodos coordinados y procedimientos adoptados en la entidad para promover la eficacia y la eficiencia de las operaciones y la confiabilidad de la información, así como el cumplimiento de las políticas.

Evidencia
La cuarta norma de auditoría de tecnologías de la información y la comunicación es:
“Debe obtenerse evidencia competente y suficiente como base razonable para sustentar los hallazgos y conclusiones del auditor gubernamental.” La acumulación de evidencia es un proceso integrado a toda la ejecución de la auditoría y debe sustentar todos los atributos de los hallazgos de auditoría (condición, criterio, causa y efecto).

Comunicación de resultados
La quinta norma de auditoría de tecnologías de la información y la comunicación es: “El informe de auditoría de tecnologías de la información y la comunicación debe ser oportuno, objetivo, claro, convincente, conciso y será el medio para comunicar los resultados obtenidos durante la misma.”
El informe de auditoría de tecnologías de la información y la comunicación debe ser emitido en forma escrita, lógica y organizada.


Referencias
D'Sousa, C. (s.f.). Obtenido de http://www.monografias.com/trabajos11/siste/siste.shtml
Hernández, J. M. (23 de Febrero de 2006). wikilearning. Obtenido de http://www.wikilearning.com/curso_gratis/seguridad_fisica_como/9707-8
Hernández, J. M. (s.f.). tldp.org. Obtenido de http://es.tldp.org/Manuales-LuCAS/doc-como-seguridad-fisica/COMO-seguridad-fisica.pdf
Marin, F. C. (24 de Agosto de 2007). Monografias. Obtenido de http://www.monografias.com/trabajos7/ceproc/ceproc.shtml
Marin, F. C. (17 de Febrero de 2008). Obtenido de http://www.monografias.com/trabajos7/ceproc/ceproc.shtml
web.mit.edu. (2013). web.mit. Obtenido de http://web.mit.edu/rhel-doc/3/rhel-sg-es-3/s1-netprot-hardware.html

Red privada virtual, concepto, características básicas de seguridad y configura tu servidor VPN en Windows

Red privada virtual
Concepto
Una red privada virtual (RPV), en inglés: Virtual Private Network (VPN), es una tecnología de red de computadoras que permite una extensión segura de la red de área local (LAN) sobre una red pública o no controlada como Internet.

Características básicas de seguridad
Para hacerlo posible de manera segura es necesario proporcionar los medios para garantizar la autentificación.
  • Autentificación y autorización: ¿quién está del otro lado? Usuario/equipo y qué nivel de acceso debe tener.
  • Integridad: de que los datos enviados no han sido alterados. Para ello se utilizan funciones de Hash. Los algoritmos dehash más comunes son los Message Digest (MD2 y MD5) y el Secure Hash Algorithm (SHA).
  • Confidencialidad/Privacidad: dado que solamente puede ser interpretada por los destinatarios de la misma. Se hace uso de algoritmos de cifrado como Data Encryption Standard (DES), Triple DES (3DES) y Advanced Encryption Standard (AES).
  • No repudio: es decir, un mensaje tiene que ir firmado, y quien lo firma no puede negar que envió el mensaje.
  • Control de acceso: se trata de asegurar que los participantes autenticados tiene acceso únicamente a los datos a los que están autorizados.
  • Auditoría y registro de actividades: se trata de asegurar el correcto funcionamiento y la capacidad de recuperación.
  • Calidad del servicio: se trata de asegurar un buen rendimiento, que no haya una degradación poco aceptable en la velocidad de transmisión.


Configura tu servidor VPN en Windows

  1. El primer paso para crear una red VPN en Windows es acceder al Centro de redes y recursos compartidos del equipo que actuará como servidor VPN. Puedes acceder a él desde el Panel de control.
  2. Después, elige la opción Redes e Internet y, a continuación, elige la opción Centro de redes y recursos compartidos. También puedes acceder desde el icono Red de la bandeja del sistema, junto al reloj.
  3. Ahora, haz clic en Cambiar la configuración del adaptador, en panel lateral.
  4. En la ventana Conexiones de Red, accede al menú Archivo y elige la opción Nueva conexión entrante. Si no tienes visible la barra de menús, pulsa la tecla ALT y se mostrarán.
  5. A continuación, pulsa sobre el botón Agregar a alguien…, para crear un nuevo usuario para la red VPN. En el cuadro que aparece, escribe un nombre de usuario y establece una contraseña. Estos serán los datos de identificación que tu dispositivo te pedirá cuando quieras conectarte a la red VPN.
  6. Cuando termines, pulsa en Aceptar. Continúa con Siguiente. Después, marca la casilla A través de Internet y continúa con Siguiente. Por último, haz clic sobre el botón Permitir acceso.
  7. Tras esto, será necesario reiniciar el equipo para que se cree la nueva red. Si tras el reinicio regresas de nuevo a la ventana de Cambiar la configuración del adaptador, observarás que se ha creado una nueva red, que te indicará si hay algún usuario usando la red VPN.

sábado, 2 de julio de 2016

Gafas de realidad virtual Samsung Gear VR, toma de contacto y primeras impresiones

Días antes de su lanzamiento hemos tenido la oportunidad de realizar un breve análisis de las Samsung Gear VR. Basadas en la tecnología de Oculus Rift –uno de los desarrolladores con mayor experiencia en desarrollo de contenidos virtuales-, las Samsung Gear VR pretenden acercar la realidad virtual al gran público de una forma sencilla y autónoma, sin cables ni ordenadores de por medio.

Aunque Samsung ya nos enseñó las Gear VR el pasado mes de septiembre en el IFA de Berlin, con la excusa de la salida a la venta de estas nuevas gafas de realidad virtual de la firma coreana hemos tenido oportunidad de probarlas mucho más a fondo, de trastear con ellas un buen rato y de experimentar más a fondo lo que estas gafas pueden ofrecer.
Las gafas de realidad virtual son sin lugar a dudas uno de los gadgets que más expectación están creando en el mercado, sobre todo desde que Oculus nos pusiese los dientes largos con las Rift. Pero el precio de aquellas gafas las convertía más en un objeto de deseo que en un dispositivo para todos los públicos.