martes, 20 de noviembre de 2018

Actualidad y Tendencias del mundo IT

¿Qué es la tecnología cloud? pros y contras
  Han pasado algunos años desde que la tecnología cloud llegó al mundo y se masificó. Quizás en su empresa ya estén 100% migrados o quizás, recién esté en el proceso. En vistas a confeccionar el presupuesto del nuevo año fiscal que se acerca, tal vez sea importante repasar los aspectos básicos, sus ventajas y desventajas.
Al editar documentos, almacenar imágenes o enviar un e-mail, estamos sin saberlo, utilizando cloud computing, un grupo de servicios que permiten desarrollar, implementar y/o administrar aplicaciones a través de una red
Según un informe de Cisco, el volumen de operaciones que se llevará a cabo en la nube superará el 90% en tres años. Otro dato relevante, es que seis de cada diez internautas -2.300 millones de personas- recurrirán a la nube informática. Por eso, creemos que vale la pena seguir profundizando en el tema y compartir sobre servicio en línea, sus ventajas y desventajas.
Este tipo de tecnología ofrece una plataforma informática como servicio, lo que significa que los usuarios pueden acceder a los servicios disponibles en la
nube de Internet sin conocimientos en la gestión de los recursos que usan. A su vez, normalmente, se paga de acuerdo a lo consumido.

El concepto de nube informática es muy amplio y abarca casi todos los posibles tipos de servicio en línea. Por lo general, se habla de estas tres modalidades:
Infraestructura como Servicio (IaaS – Infraestructure as a Service) o almacenamiento básico y capacidades de cómputo como servicios estandarizados en la red. Por ejemplo, despliegue de servidores, sistemas de almacenamiento, conexiones y enrutadores.
* Plataforma como Servicio (PaaS – Platform as a Service) son un conjunto de herramientas de software y desarrollo de productos hospedados en la infraestructura del proveedor del servicio. Esto permite al cliente publicar aplicaciones desarrolladas por ellos mismos o terceros, como el hosting de páginas web, entre los más comunes. En este modelo se le ofrece al usuario la plataforma de desarrollo y las herramientas de programación para la realización de aplicaciones propias y controlarlas pero, sin controlar la infraestructura.
* Software como servicio (SaaS – Software as a Service). El proveedor proporciona la infraestructura de hardware, el software y además interactúa con el usuario a través de un portal de acceso. El mercado de SaaS es muy amplio. Dos ejemplos son los productos de backup en la Nube (Azure Backup) o CRM en la Nube (CRM Dynamics).
Se destacarn tres tipos de nubes: públicas, privadas o híbridas.
* Las nubes públicas son aquellas mantenidas y gestionadas por terceras personas no vinculadas con la organización. Tanto los datos como los procesos de varios clientes se mezclan en los servidores, sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales de la nube no conocen qué trabajos de otros clientes corren en el mismo servidor o red. Están disponibles al público a través del proveedor de servicio -que es propietario de toda la infraestructura en sus centros de datos- y además, el acceso a los servicios solo se ofrece de forma remota, normalmente a través de internet.
* Las nubes privadas son una buena opción para las compañías que necesitan una protección de datos elevada y ediciones a nivel del servicio. Se encuentran en una infraestructura bajo demanda, gestionada para un solo cliente que controla qué aplicaciones deben ejecutarse y dónde. Las empresas u organizaciones son los propietarios del servidor, red, disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura. Al administrar internamente estos servicios, las empresas tienen la ventaja de mantener la privacidad de su información. Por último, permite unificar el acceso de los usuarios a las aplicaciones corporativas.
* Las nubes híbridas combinan los modelos de nubes públicas y privadas. Un usuario, por ejemplo, es propietario de una parte y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa
de la escalabilidad, -aprovisionada externamente, a demanda- pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de éstos diferentes ambientes. Las empresas pueden sentir cierta atracción por la promesa de este tipo de nube, pero esta opción -al menos inicialmente- estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o que no necesiten bases de datos complejas.
¿Cuál son los beneficios de la tecnología cloud?

Los principales beneficios de la tecnología cloud son 6.

* Es económica: permite ahorrar dinero y maximizar el impacto. Los recursos en la nube suelen tener menores costos a los que un aprovisionamiento físico local podría representar, porque demandan una menor cantidad de recurso. * Es escalable y elástica: posibilita crecer o decrecer según el tamaño del negocio, gracias a que los recursos se entregan sobre una base de autoservicio casi en tiempo real. Lo que también se conoce como infraestructura dinámica.

* Es rápida y ágil: puede emprender su negocio en cuestión de minutos y ofrece una capacidad de mejora continua.

* Tiene mejor rendimiento: controla y optimiza el uso de los recursos de manera automática por medio un permanente seguimiento, con un sistema de notificaciones. Esta capacidad aporta transparencia tanto para el consumidor como para el proveedor del servicio.

* Genera independencia entre el dispositivo y la ubicación: los usuarios acceden a los sistemas utilizando un navegador web, independientemente de su ubicación o del dispositivo que utilicen.

* Es más segura: la seguridad es a menudo tan buena o mejor que los sistemas tradicionales. En parte, porque los proveedores son capaces de

dedicar recursos a la solución de los problemas de seguridad, que muchos clientes no pueden permitirse el lujo de abordar. El usuario de la nube es responsable de la seguridad a nivel de aplicación y el proveedor de la nube es responsable de la seguridad física.

* Ofrece una mejor integración: se integra con mayor facilidad y rapidez con el resto de las aplicaciones empresariales, desarrolladas de manera interna o externa.

* Evita instalaciones innecesarias: la organización puede prescindir de instalar cualquier tipo de software.

* Contribuye al uso eficiente de la energía: en los datacenters tradicionales, los servidores consumen mucha energía.

* Autoriza la prestación de servicios a nivel mundial: las infraestructuras de cloud proporcionan mayor capacidad de adaptación, recuperación completa de pérdida de datos (con copias de seguridad) y reducción al mínimo de los tiempos de inactividad.

* Se implementa mucho más rápido: se comienza a trabajar mucho más rápido y no es necesaria una gran inversión inicial. Las aplicaciones cloud suelen estar disponibles en cuestión de días u horas en lugar de semanas o meses, incluso con un nivel considerable de personalización o integración.

* Permite actualizaciones automáticas: las cuales no afectan negativamente a los recursos de TI.

El modo de transmisión que ofrece la nube informática conforma un paradigma que permite un acceso universal y el beneficio principal de contar los recursos informáticos en cualquier momento y desde cualquier lugar, únicamente por medio de una conexión a internet. Sin embargo, como toda tecnología también presenta algunas desventajas:

* La disponibilidad de las aplicaciones está sujeta a la disponibilidad de internet.

* La centralización de las aplicaciones y el almacenamiento de los datos origina una interdependencia de los proveedores de servicios.

* La información de la empresa debe recorrer diferentes nodos para llegar a su destino, y cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan protocolos seguros, HTTPS por ejemplo, la velocidad total disminuye debido a la sobrecarga que requieren.

* Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará. Si la empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el servicio o altos niveles de jitter.

Pero sin duda, resumiendo, lo más importante del cloud computing es que facilita el acceso remoto al software, los datos e incorpora un mantenimiento seguro.

miércoles, 29 de agosto de 2018

LAS VENTAJAS DE LA VIRTUALIZACIÓN

Hay dos tendencias de las que se hablan hace unos años y hasta parecen trillados, pero siguen creciendo sin parar en las empresas que dependen de la tecnología para llevar adelante sus negocios: el teletrabajo y el BYOD. Ya no es una moda "cool" de las grandes corporaciones y hasta las más pequeñas lo adaptaron como parte de su cultura.



El teletrabajo es una opción que viene sumando adeptos dentro de América Latina. Según datos de la organización 5G Américas, esta modalidad alcanza hasta el 10% de la actividad laboral (las cifras varían dependiendo el país). De acuerdo a la Organización Internacional del Trabajo esta manera de efectuar las tareas fomenta la inclusión de las mujeres y personas con discapacidad en el mercado laboral, un hecho que amplía el pool de talentos al que pueden recurrir las empresas.

La segunda tendencia, que suele sintetizarse con la sigla BYOD, que en inglés significa Bring Your Own Device (trae tu propio dispositivo, en español), se trata de la posibilidad de que los empleados utilicen sus propios dispositivos tecnológicos para realizar su trabajo. Con el crecimiento sostenido en la potencia de procesamiento en cualquier tipo de dispositivo móvil, esto cada vez llega a áreas más alejadas de la gerencia de sistemas y decanta en el resto de la empresa. En América del Norte, para fines del año pasado el 50% de los trabajadores se vieron alcanzados por esta modalidad de una forma u otra, según un informe de Cisco. Para mensurar la tendencia: el mercado de movilidad BYOD y empresarial alcanzará la increíble suma de US$ 73.300 millones para 2021, de acuerdo a una estimación de la consultora Markets and Markets.

Ahora bien: ¿cuál es impacto de estas tendencias en el uso de la tecnología? La única manera de acompañar estas "modas" crecientes es a través de la virtualización de escritorios y aplicaciones (conocida en la jerga como VDI o infraestructura de escritorio virtual, en inglés); es el proceso de ejecutar el escritorio de cada usuario de una empresa dentro de una máquina virtual que se ubica en un data center. De esta manera, y sin requerir grandes inversiones para asegurar la seguridad de los datos, cada empleado puede acceder a su propio escritorio, y sus propias aplicaciones, sin importar qué computadora o smartphone use.

3 ventajas para tener en cuenta:
No hace falta pagar por la capacidad de procesamiento máxima todo el tiempo, sino que se puede aumentar durante momentos puntuales, como cuando hay que hacer el pago mensual de sueldos, con una modalidad de Infraestructura como Servicio (IaaS, por su sigla en inglés).
Permite tener copias centralizadas de aplicaciones y de datos a los que puede accederse con una sencilla URL, incluso cuando es necesario acceder al ERP o CRM de la empresa.
En caso de un problema de seguridad con el dispositivo del empleado, no afectará al escritorio virtual, por lo que los datos están totalmente seguros. Como el sistema hace backups diarios, lo máximo que puede perderse es el trabajo de un día (como mucho y dependiendo de las configuraciones, esto puede reducirse).

Si bien hay muchas soluciones en el mercado, dos de las que ofrecen un paquete global pensado especialmente para las situaciones descritas son Citrix XenApp y XenDesktop trabajando dentro de Microsoft Azure RemoteApp. El primero está dedicado a aplicaciones y la segunda, más amplia, es una plataforma completa que permite la escalabilidad. Ambas brindan la posibilidad de entregar aplicaciones Windows, Linux, web y SaaS o escritorios virtuales completos desde cualquier nube (pública, on-premise o híbrida).

Un excelente ejemplo es el de Skype for Business, una plataforma de comunicación irreemplazable dentro del universo de los negocios -la usan 100 millones de personas; el 79% de los clientes empresariales en los Estados Unidos la usan. Tanto XenApp como XenDesktop dan la posibilidad de utilizar esta aplicación de manera virtualizada o dentro de un escritorio virtual con el mismo rendimiento de una aplicación local.

EL FUTURO DE LA IT CORPORATIVA ES LA INFRAESTRUCTURA CONVERGENTE

En palabras sencillas, la infraestructura convergente combina el hardware, las redes y el almacenamiento en una única arquitectura integrada. Su adopción acelerada dentro del mercado mundial de sistemas integrados, promete llegar hasta US$5.000 millones para el año 2019, de acuerdo a datos de la consultora Gartner. Es sencillo entender el por qué de este crecimiento acelerado: según un estudio de IDC, la utilización de este tipo de infraestructura puede reducir los costos de operaciones hasta en un 59%, con un 22% de ahorro de gastos en hardware, energía y mantenimiento y, además, generar un ROI de hasta 619%. Este tipo de infraestructura, sumada a las soluciones convergentes existentes, permitirá mejorar tanto los tiempos de respuesta como el rendimiento de la tecnología. ¿Cómo? A continuación, las 5 claves que muestran que el futuro está en esta arquitectura que tiene a las distintas variedades de nube (públicas, privadas e híbridas) en el centro de todo.


1) Todo en la nube, a la mano y bajo demanda.

El hardware funciona como una Plataforma como Servicio (PaaS). Esto permite reducir al mínimo el hardware legacy que en otras épocas se llevaba gran parte del presupuesto del departamento de IT (hasta el 70%, según datos de Microsoft) y pasar a un esquema de virtualización tanto del almacenamiento como del poder de cómputo. Ahora, el equipamiento es un servicio al que se puede acceder bajo demanda y de manera escalable, variando según las necesidades y los presupuestos disponibles.

2) Simplicidad y estandarización.

La infraestructura convergente permite trabajar con una plataforma integrada en vez de tener que ir de una tecnología a otra. Es relevante destacar que incluye las soluciones de seguridad y las actualizaciones, que pasan a ser menos frecuentes y pueden implementarse de manera poco disruptiva para el trabajo cotidiano.

3) Reducción de costos y de consumo de energía.

Con una infraestructura convergente puede reducirse hasta un 20% (y un poco más también, como se menciona al principio).  Es gracias a que se evitan gastos de capital en servidores físicos, así como el costo de instalación. Así lo explicó la consultora Forrester tras realizar entrevistas en profundidad a responsables de sistemas en empresas que han escogido la convergencia. En estas organizaciones, además, fueron capaces de reducir la inversión en recursos de almacenamiento, de red y en la utilización del software. Respecto a la red, esto redundó en un achicamiento del espacio físico necesario para el data center con el consiguiente ahorro en la energía, dato fundamental en empresas que necesitan sus sistemas corriendo 24x7.

4) Menos personal IT

El sueño de todo CIO, hacer más con menos. Con la infraestructura convergente, se requiere menos soporte y, además, el negocio puede crecer sin mayores problemas y sin agregar personal. Los departamentos de IT que estaban abocados, según la consultora IDC, el 75% del tiempo a mantener los equipos existentes –“mantener la luz encendida 24/7”- ahora podrán dedicarse a desarrollar nuevas estrategias innovadoras en otros puntos clave de la empresa.

[La hiperconvergencia es uno de los pilares de lo que denominamos
infraestructura dinámica para un enfoque estratégico]

5) Fin de las contingencias externas

A veces el hardware falla o se ve afectado por problemas como una inundación o un corte de luz tan extenso que ninguna estrategia de respaldo –disaster recovery– puede subsanar completamente. Esto puede redundar no solo en una mala reputación para su empresa, sino también en multas de las autoridades regulatorias, dependiendo del negocio. Con la infraestructura convergente, todo lo antedicho deja de ser un inconveniente: si uno de los servers falla, todas las máquinas virtuales pueden ser reiniciadas de forma automática desde otra máquina, sin pérdida de tiempo ni –tal vez más importante aún– de datos.

Se trata de utilizar la tecnología para aprovechar mejor los recursos siempre finitos: hoy, lo mejor es destinar el presupuesto no tanto a tener el mejor hardware, sino a conseguir el mejor servicio de Infraestructura que se ajuste a los equipos que la empresa tiene. De esta manera, con un modelo de suscripción como los actuales, los gastos bajan y el retorno de cada dólar invertido crece.

Anímese a dar el salto hacia la transformación digital y súmese a la tendencia que ya está ayudando a reducir tiempos, costos y aumentar la productividad.

Los desafíos para transitar hacia la Industria 4.0

Las palabras “innovación” y “digitalización” ya están en boca de todos. Crecientemente se menciona además el concepto de Industria 4.0. Y aunque toda la historia de la humanidad se ha caracterizado por grandes inventos que cambiaron el mundo y sin los cuales nuestra vida no habría transcurrido de la misma manera, se percibe hoy día una situación distinta.

Esta Cuarta Revolución Industrial o “Industria 4.0” que lleva la automatización y el intercambio de datos a un nuevo nivel, estableciendo sistemas ciber físicos en el espacio del Internet de las Cosas (IoT) y el Big Data implica cambios inéditos por la dimensión de su impacto y su velocidad vertiginosa.



No solamente han cambiado las empresas que hoy día lideran por su valorización, los modelos de negocios que imponen o las tecnologías que utilizan. También hemos cambiado nosotros mismos en nuestra manera de conectarnos debido a la revolución digital. En muy pocos años ha cambiado el mundo entero y seguirá cambiando en adelante cada vez con mayor velocidad y profundidad.

Gracias a su capacidad innovadora, Alemania ha logrado durante su historia, sobrellevar exitosamente constantes procesos de conversión y ajustes. Algunos de los secretos de su éxito han sido su gran capacidad para crear alianzas estratégicas entre los más diversos actores en un ecosistema colaborativo y de excelencia así como el diseño de políticas públicas de largo plazo con apuestas de alto valor y alcance. Otro secreto son los así llamados “hidden champions”, pequeñas y medianas empresas con un alto grado de especialización, relevantes capacidades de innovación  y que exportan sus productos de tecnología de punta a todo el mundo. Aunque sus nombres no aparecen entre las marcas más conocidas, juegan en las grandes ligas de la globalización gracias a su competitividad.

Para todo ello, se conjugan varios elementos claves: La colaboración entre empresas, universidades y centros de investigación, que permite transferir y aplicar los últimos avances en ciencia y tecnología tanto a los procesos de producción como a los mismos productos o a los desafíos de la sociedad en general. A ello se agregan un alineamiento de programas públicos de fomento con los desafíos del desarrollo económico y de sustentabilidad así como un sistema educativo moderno y de formación profesional dual que asegura contar con técnicos altamente calificados.

A esto se suma la consciencia de los empresarios sobre el rol social que desempeñan en las comunidades donde operan, caracterizada por el apego a las normas legales y ambientales, así como el respeto hacia los empleados, que se traduce en un alto nivel de lealtad e identificación de los trabajadores con sus empresas.

Mientras las primeras tres revoluciones industriales tuvieron un impacto primordialmente en maquinaria y tecnología dura, esta cuarta revolución impacta más que ninguna de las anteriores en las personas. Por ello podemos afirmar que esta vez serán las personas la piedra angular de la transformación. De hecho la supervivencia de las empresas dentro de este ciclón tecnológico dependerá en primer lugar de los talentos, su formación, atracción y constante capacitación más que de la absorción tecnológica en si.

El desafío que significa para cualquier empresa, rubro o país de subirse a esta cuarta revolución industrial es enorme. Es por ello que debe enfrentarse en alianzas y de manera colaborativa entre todos. CAMCHAL se empeña en construir puentes y redes entre ambos países para impulsar un ecosistema de innovación en Chile que tome algunos de los elementos claves del éxito del modelo que Alemania ha desarrollado en los más diversos ámbitos. Así Chile podría dar un paso más hacia una mayor productividad y competitividad, aprovechando los beneficios que entrega la Industria 4.0 y logrando un mayor bienestar para todos.

Epson lanza Print Admin

El sistema ofrece funciones avanzadas, como la de “escanear y enviar”, políticas de impresión basadas en reglas y herramientas administrativas, que impulsan la productividad y eficiencia de las pequeñas y medianas empresas.



Epson ha diseñado una solución integrada de software llamada Epson Print Admin, que permite la creación de un entorno seguro de impresión, copiado, escaneo y faxeo gracias a la autenticación del usuario mediante contraseñas, códigos PIN y tarjetas de acceso.

Según un comunicado de la firma, el sistema ofrece funciones avanzadas, como la de “escanear y enviar”, políticas de impresión basadas en reglas y herramientas administrativas, que impulsan la productividad y eficiencia de las pequeñas y medianas empresas. Además, permite tener una visión general de los gastos operativos y genera una reducción controlada de los mismos.

“Con la solución Epson Print Admin queremos apoyar a las PyMes a través de funciones que los ayuden a aumentar su productividad, controlar y proteger sus equipos de impresión, lo que representa generar bajos costos de operación y mantenimiento”, comenta Ignacio De La Torre, gerente de producto, Software – América Latina.

Características principales:

·         Políticas de impresión con reglas – Controla los costos de impresión y copiado a color por dispositivo o por usuario.

·         Liberación segura y Pull Printing – Habilita la protección de la información confidencial, requiriendo identificación de los usuarios en cada dispositivo.

·         Uso seguro y control de equipos – La autenticación de perfiles de usuario impide que se usen los equipos sin autorización, lo cual permite reducir riesgos.

·         Aumento de la productividad con Escaneo a E-mail/Archivo – Personaliza las interfaces de los usuarios en dispositivos compatibles para perfiles de empleados, resultando en mejora de eficiencia operacional.

·         Integración sencilla a los equipos – Soporta sistemas Windows Server® y SQL Server y se integra con Microsoft Active Directory/OpenLDAP

·         Rápido retorno de inversión – Permite disfrutar del Costo Total de Propiedad (del inglés, TCO) más bajo de la industria y de bajos costos de operación y mantenimiento.

·         Control y protección del uso de las impresoras multifunción – Otorga permisos del dispositivo a funciones específicas, basado en fechas o rangos de tiempo a nivel de usuario o grupo.

·         Generar reportes de uso por usuario, grupo, dispositivo, o centro de costo – Programar informes para que se generen automáticamente y se envíen por correo electrónico a múltiples listas.

·         Administración continua sencilla – Gracias a la interfaz centralizada en web con sencillos menús de configuración, se podrán usar funcionalidades avanzadas de impresión, copiado, escaneo y faxeo.

Epson ha diseñado esta solución especialmente para pequeñas y medianas empresas, brindando una herramienta que proporciona opciones de impresión seguras, un escaneado eficiente y ayuda para gestionar dispositivos de forma remota entre los usuarios.

lunes, 22 de enero de 2018

Intel responde a los descubrimientos de seguridad

Intel y otras empresas de tecnología están al tanto de la nueva investigación de seguridad que describe los métodos de análisis de software que, cuando se utilizan con fines maliciosos, tienen el potencial de recopilar datos confidenciales de dispositivos de computación que están funcionando conforme a su diseño. Intel cree que estas vulnerabilidades no tienen el potencial de corromper, modificar ni eliminar los datos.

Los recientes informes en los que se expone que estas vulnerabilidades son causadas por un error y que ocurren exclusivamente en los productos Intel® son incorrectos. Según los análisis realizados hasta la fecha, muchos tipos de dispositivos informáticos, con procesadores y sistemas operativos de diferentes proveedores, son susceptibles a sufrir estas vulnerabilidades.

Intel está comprometido con la seguridad de los clientes y de los productos, y está trabajando estrechamente con muchas otras empresas de tecnología, en las que se incluyen AMD, ARM Holdings y varios proveedores de sistemas operativos, con el fin de desarrollar un enfoque para toda la industria y solucionar este problema de manera inmediata y constructiva. Intel comenzó a proporcionar actualizaciones de software y firmware para mitigar estas vulnerabilidades. El impacto en el desempeño de estas actualizaciones es altamente dependiente de las cargas de trabajo y varía según el microprocesador, el tipo de plataforma (cliente o servidor), la configuración y la técnica de mitigación. Intel cree que para el usuario promedio de computadoras, el impacto en el desempeño no debería ser importante, a pesar de que el desempeño de algunas cargas de trabajo pueda verse afectado notablemente.

Intel está comprometido con la buena práctica de la industria de divulgar de manera responsable los posibles problemas de seguridad, es por este motivo que Intel y otros proveedores planificaron revelar este problema una semana después, ya que habría más actualizaciones de firmware y software disponibles. Sin embargo, Intel está haciendo esta declaración hoy, debido a los incorrectos informes que los medios de comunicación han publicado actualmente.

Consulte con su proveedor de sistema operativo o fabricante de sistema, y aplique cualquier actualización apenas esté disponible. Seguir las buenas prácticas de seguridad que protegen contra el malware en general también contribuirá a proteger contra las posibles vulnerabilidades hasta que puedan realizarse las actualizaciones.

Intel cree que sus productos son los más seguros en el mundo y que, con el respaldo de sus socios, las soluciones actuales para este problema brindarán la mejor seguridad posible para sus clientes.

viernes, 8 de diciembre de 2017

9 pilares tecnológicos de la industria 4.0

La incorporación de nuevas tecnologías digitales en los procesos productivos han impactado enormemente en la forma de hacer las cosas en las empresas, dado paso a una era en la industria que se ha denominado la cuarta revolución industrial.


El término “Industria 4.0” se utilizó por primera vez en 2011 en la Feria de Hannover en Alemania, el mayor evento de tecnología industrial del mundo. Este concepto describe la digitalización de las cadenas productivas mediante innovadoras aplicaciones, que describimos a continuación, junto con el avance de los sistemas de información y otros componentes electrónicos, que han permitido una producción más eficiente, flexible, competitiva, a un menor coste y de gran calidad.
1.Big Data y análisis de datos
Se denomina a la gestión y análisis de enormes volúmenes de datos que generan las nuevas tecnologías. Su objetivo, es convertir el dato en información para facilitar la toma de decisiones. Más que una cuestión de tamaño, es una oportunidad de negocio.
2.Sistemas ciber físicos y robótica autónoma
Sistemas que captan la información del entorno y son capaces de actuar sin intervención humana. A pesar de que los fabricantes han estado utilizando robots para tareas complejas durante mucho tiempo, sus capacidades están evolucionando de manera sorprendente, volviéndose cada vez más flexibles y autónomos.
3.Simulación
El uso de la simulación computacional es esencial para garantizar la calidad y la eficiencia en el desarrollo de productos. Los profesionales pueden realizar diferentes análisis: dinámicos, de fluidos, térmicos, electromagnéticos, acústicos, entre otros, que proporcionan beneficios tales como la reducción del tiempo en la elaboración de proyectos, aumento de la productividad, facilidad en la detección de fallas e identificar mejor las soluciones.
4.El internet de las Cosas (IoT, por sus siglas en inglés)
Es un concepto que se refiere a la interconexión digital de objetos cotidianos con internet. Tales objetos (o máquinas) están equipados con sensores y tecnologías capaces de recopilar datos, que sirven para determinar, por ejemplo, el estado de las cosas.
5.Ciberseguridad
La industria del futuro requiere que todas las áreas de la empresa están conectadas, por eso que la ciberseguridad es un elemento clave para proteger los sistemas y los datos de las amenazas potenciales y fallos que pueden causar problemas en la producción.
6.Fabricación aditiva
Cuando hablamos de fabricación aditiva, estamos hablanco no solo de impresión 3D, sino también de robótica, computación, inteligencia artificial, comunicación entre dispositivos y mucho más, que serán ampliamente utilizados para producir pequeños lotes de productos personalizados que ofrecerán diferentes ventajas en la construcción de aquellos diseños que sean ligeros y complejos.
7.Realidad Virtual
Es la combinación de elementos virtuales con elementos del mundo real para crear una experiencia híbrida
8.Integración de sistemas horizontales y verticales
Se refiere a la gestión de sistemas integrados con el fin de disponer de una plataforma única, donde los empleados y colaboradores tengan acceso a la misma información (SCM, ERP, CRM, CMS, HRM. Todos estos sistemas independientes, pero que deben estar conectados en favor de una automatización de tareas y garantía de una gestión integral de la experiencia del usuario.
9.La nube
Dentro de la Industria 4.0, más organizaciones comienzan a utilizar software basados en la nube, que les permite almacenar y compartir datos. La nube funciona básicamente como servidores remotos que almacenan información, datos y programas, de manera que es posible acceder a ellos desde cualquier dispositivo conectado a internet en cualquier parte del mundo.

martes, 28 de noviembre de 2017

El ahorro: ¡Un Hábito muy importante!

Todos los 31 de octubre, desde el año 1924, se celebra a nivel mundial, el día del ahorro.

Algo que todos decimos que si, que es muy importante, que debemos aplicarlo, que tiene que estar siempre en nuestra vida; pero, ¿realmente lo cumplimos? ¿Tenemos un plan de ahorro diario o anual? ¿Conocemos que otras maneras de ahorro existen aparte de depositar dinero a una alcancía o una entidad bancaria?

Existen muchísimas formas de ahorrar, aunque la excusa siempre es “mi salario no me alcanza para ahorrar nada”, ahorrar no se trata de tener de sobra, se trata de tener la fuerza de voluntad, la responsabilidad y la estrategia para encontrar la manera de gastar menos.

Muchos se preguntan, ¿Y para qué ahorrar? Sencillo, hay dos razones importantes. La primera es lograr cumplir nuestros sueños y metas, ya sean a nivel personal o familiar y la segunda es pensar en el futuro, lograr tener un ingreso fijo cuando lleguemos a la tercera edad y ya no podamos trabajar.

Para la primera razón es fácil pensar, me endeudo y luego pago, pero debes pensar que podrías quedarte sin trabajo en cualquier momento y las deudas van a seguir aumentando cada vez más; en cambio, si ahorras primero, podrás pagar el valor original de tu sueño y no te incrementarán los intereses. Imagínate ¿cuánto dinero podrías ahorrar si desde que tu hijo nació, vas ahorrando para pagar su universidad?, te evitarías muchos préstamos y cantidades alarmantes de intereses a pagar.

La segunda razón es algo muy importante, ya que para las nuevas generaciones, el tema de la pensión en varios países será algo complicado de obtener, por esa razón es básico que desde cierta edad se empiece un ahorro para la vejez.

En todo caso, tener un plan de ahorro en el hogar y en el trabajo, es vital para lograr cosas buenas para nuestro futuro.

Aprovechando el día mundial del ahorro, queremos motivarte para que puedas crear tu plan y poco a poco ir cumpliendo tus objetivos.

Recuerda que en ese plan también debes incluir el ahorro en servicios públicos, por esa razón, CDP podrá ayudarte a ahorrar energía y a proteger tus equipos eléctricos de cualquier falla eléctrica que pueda deteriorarlos o acabar con su vida útil. Esta es otra forma muy importante de ahorrar.






miércoles, 19 de julio de 2017

¿El último suspiro de la PC?

Por más pronósticos negativos y advertencias que emitan los observadores del mercado respecto a la caída del negocio de la PC, ésta sigue encontrando formas de mantenerse vigente, dando origen a negocios redituables en diversas áreas.

A muchos vendors les interesa mantener en funcionamiento la industria de la PC y se muestran optimistas en cuanto a su futuro, aún cuando los números que exhiben las consultoras sean desmoralizantes.

NÚMEROS FRÍOS

La firma Gartner emitió recientemente un informe en el que indica que las ventas mundiales de PCs totalizaron 62,2 millones de unidades en el primer trimestre de 2017, lo que representa una caída del 2,4 por ciento con respecto al mismo período de 2016. En el informe, la empresa destaca que fue la primera vez desde el año 2007 que las ventas de PCs se situaron por debajo de los 63 millones de unidades en un trimestre.

En el segmento de PCs empresariales la industria experimentó un crecimiento modesto, pero la fuerte caída del segmento de consumidores lo eclipsó por completo. Según explican los analistas de la firma, muchos consumidores mantuvieron la decisión de no actualizar sus PCs, mientras que otros directamente dejaron de lado a las computadoras personales para adoptar otros tipos de dispositivos. El segmento de empresas, en cambio, mantiene a la PC como una herramienta imprescindible para el trabajo, por lo que la actualización del parque instalado en empresas sería, según Gartner, el negocio que mantiene vivo al mercado de PCs.



Las cifras de crecimiento del mercado arrojan resultados negativos, pero los vendors mantienen el optimismo

Las cifras de crecimiento del mercado arrojan resultados negativos, pero los vendors mantienen el optimismoLas cifras de crecimiento del mercado arrojan resultados negativos, pero los vendors mantienen el optimismo


“Mientras el mercado de consumidores sigue achicándose, conservar una posición fuerte en el mercado empresarial será crítico para mantener un crecimiento sostenible en el mercado de PC”, dijo Mikako Kitagawa, analista principal de Gartner. “Los ganadores en el segmento empresarial serán en definitiva los ganadores de un mercado que se achica. Los vendors que no tengan una fuerte presencia en el mercado empresarial encontrarán grandes problemas, y se verán forzados a retirarse del mercado de PC dentro de los próximos cinco años. Sin embargo, también existirá un nicho de jugadores especializados con PCs construidas con un propósito específico, tales como PCs de gaming y PCs portátiles resistentes a entornos agresivos”.

NICHOS QUE SON MERCADOS

Los vendors no concuerdan con Gartner en que la industria de la PC deba aferrarse únicamente al segmento empresarial para sobrevivir. Para Nicolás Cánovas, gerente general de AMD para los países sudamericanos de habla hispana, la PC está en un buen momento y los principales impulsores de su crecimiento son rubros de gran potencial como el gaming, la realidad virtual y la productividad. “Los volúmenes no crecen, pero sí crecen los productos; son de más alto nivel, son más caros”, destaca Cánovas, señalando el aumento de los precios promedio de las PCs. “Lo que puede haber sufrido un poco el impacto de la caída del volumen son las máquinas de nivel de entrada, con los procesadores más baratos. Esas son las que crean el volumen. Pero en el segmento que llamamos de performance se observan crecimientos exponenciales, con números más interesantes y márgenes más interesantes”.

icolás Cánovas, Gerente General AMD, Spanish South America_1
“Los volúmenes no crecen, pero sí crecen los productos; son de más alto nivel, son más caros”

“Desde ASRock realmente no vemos que el negocio de la PC tenga que salir a ‘flote’”, señala Hernán Chapitel, director de ventas para Latinoamérica de ASRock. “Los números a nivel mundial se vienen manteniendo, e inclusive para nosotros todos los años es un poco más. De todas maneras es cierto que el negocio se va diversificando, desde hace años que el gaming es el principal segmento donde la PC tiene futuro, pero la parte industrial y de automatización exige de nuestra parte diseños nuevos periódicamente para ir adaptándonos a los nuevos escenarios que serán automatizados en el futuro”.

Hernán Chapitel, director de ventas para Latinoamérica en ASRock
“Los números a nivel mundial se vienen manteniendo, e inclusive para nosotros todos los años es un poco más”

En HP Inc. opinan que las oportunidades en la industria de la PC están asociadas a entender las necesidades de los consumidores. “En la medida en que las compañías puedan desarrollar productos que se adapten a los requerimientos de los usuarios, el mercado de PCs se mantendrá a flote”, opina Roxana López Galelo, Consumer Category Manager en HP Inc. “Desde HP Inc. creemos que es fundamental continuar siempre innovando, para acercar una mejor experiencia al cliente”.

La PC se mantendrá firme gracias a diferentes pilares que permitirán explotar su potencial, señala la ejecutiva de HP. “Esto no se limita a un solo mercado”, explica. “A modo de ejemplo, el gaming, acompañado por el auge de los deportes electrónicos (eSports), representa una comunidad que no deja de mostrar crecimiento a nivel mundial. De hecho, según un estudio realizado por la firma Newzoo, la audiencia global de eSports alcanzará 385 millones en 2017, con 191 millones de entusiastas y otros 194 millones de jugadores ocasionales, y se espera que el número de entusiastas de eSports crezca aproximadamente un 50 por ciento hacia 2020, alcanzando un total de 286 millones de personas.” Cánovas concuerda: “Hay millones de espectadores que siguen las competencias en línea de eSports. Hay torneos internacionales que son vistos por un público mayor que el del Super Bowl”.

Roxana López Galelo, Consumer Category Manager en HP Inc.
“El gaming, acompañado por el auge de los deportes electrónicos (eSports), representa una comunidad que no deja de mostrar crecimiento a nivel mundial”

MUTACIONES

Además de considerar los mercados que mantienen a flote a la PC tal como la conocemos, los vendors también buscan la forma de que la PC se adapte a nuevos ecosistemas. “A nuestro entender, la industria de la PC está virando hacia nuevos formatos”, opina Juan Pablo Kempter, responsable de marketing de Gigabyte. “Las oportunidades van de la mano de los cambios. Gigabyte está en constante actualización, adaptándose a las nuevas necesidades que van surgiendo para satisfacer a todos nuestros usuarios”.

La empresa recientemente lanzó su marca Aorus, que se focaliza en el segmento del mercado que busca los productos de mayor performance y rendimiento, particularmente para gaming. Pero la empresa no descuida la pata empresarial. “En nuestro caso podemos hablar de dos targets principales: corporativo y gaming”, agrega Kempter. “Los dos tienen mucho potencial, y nos enfocamos en complacer a cada uno. En cuanto al público corporativo con nuestras mini PCs Brix logramos llegar cada vez a más empresas que buscan optimizar el espacio y consumo de cada computadora. Y hablando del nicho gamer, con Aorus brindamos una solución de gaming total para los entusiastas más exigentes”.

“Después de haber superado su crisis de identidad, en la que la PC se usaba para todo, pasó de ser algo muy básico para un público muy amplio a estratificarse en productos más focalizados”, agrega Cánovas. “En este contexto aparecen los ‘prosumers’: consumidores que usan componentes que técnicamente están orientados a profesionales, pero los usan por que quieren jugar juegos en alta calidad, sencillamente por que quieren tener buenas máquinas. Ese grupo dejó de ser un nicho y pasó a constituir una cantidad de gente interesante”.

La estética sería otro de los aspectos que recientemente ha cobrado importancia como factor de decisión de compra de las PCs. “Hoy en día, la decisión de compra de un equipo no pasa solamente por su funcionamiento, sino que también se espera que el producto sea atractivo, adaptable al entorno en el que se encuentra, como puede ser un living o la habitación, que sea delicado y no desentone con el ambiente; es decir, afín a las cualidades que identifican al consumidor”, amplía López Galelo.

QUÉ HACEN LOS FABRICANTES

“AMD está en línea con el nuevo escenario del mercado de PC -destaca Cánovas-, buscando los pilares que hacen que este mercado tenga un buen presente, que es distinto al que tenía hace cuatro o cinco años. Hoy no se manejan los volúmenes que se manejaban antes, pero las máquinas apuntan a un público más exigente”.

“Desde Gigabyte estamos ampliando nuestro portfolio de productos, con constante actualización, ofreciendo soluciones a distintos públicos”, explica Kempter. “En plena época digital, una empresa de tecnología tiene muchas oportunidades de crecimiento y negocios”.

“En HP consideramos que es fundamental la constante innovación, pensando siempre en las diferentes necesidades y usos de los usuarios”, agrega López Galelo. “Es por esto que nos esforzamos por aportar un portfolio de productos completo, con líneas de productos dedicadas a cada uno de los segmentos disponibles”.

“ASRock es una empresa enfocada cien por ciento en el negocio de la PC”, enfatiza Chapitel. “Y en los últimos dos años, ASRock empezó a desarrollar mercados donde sólo despachaba productos sin hacer un trabajo de mercadeo, como por ejemplo Latinoamérica y Medio Oriente”.

Ya sea por su alta performance, por su aspecto atractivo o por su capacidad para adaptarse a entornos cambiantes, los vendors siguen destinando esfuerzos a mantener el interés en la PC por parte del público consumidor o empresarial. Si estos esfuerzos dan frutos, la PC todavía tiene por delante algunas décadas de una vida saludable.

jueves, 27 de abril de 2017

Seguridad de datos: impactante informe de Dell

Según la encuesta sobre seguridad de usuarios finales realizada por la compañía, casi tres de cada cuatro empleados (un 72%) están dispuestos a compartir información empresarial confidencial o reglamentada en algunas circunstancias. Asimismo, más de uno de cada tres afirma que es común llevarse datos corporativos con ellos cuando se van de una empresa, y un 76% siente que se prioriza la seguridad a costa de la productividad de los empleados.

La encuesta muestra además que cuando los empleados manejan información confidencial suelen llevar adelante prácticas riesgosas al acceder a los datos, compartirlos o almacenarlos de forma no segura. Un 24 % de los encuestados afirma que lo hacen para realizar su trabajo y un 18 % dice que no sabían que lo que hacían era riesgoso. Solo un 3 % de los participantes afirmó tener intenciones maliciosas al llevar a cabo prácticas no seguras.

Según los resultados de la investigación, los empleados deben esforzarse para garantizar la seguridad cibernética en el lugar de trabajo porque no desean que su empresa sufra una violación de datos, pero también deben lidiar con las limitaciones que los programas de seguridad imponen en su productividad y sus actividades cotidianas.



El estudio se llevó a cabo entre 2,608 profesionales que trabajan con información y datos confidenciales o reglamentados, y tienen acceso a ellos, en empresas con más de 250 empleados. Participaron empleados de 8 países: Australia, Canadá, Francia, Alemania, India, Japón, el Reino Unido y los Estados Unidos. La investigación se realizó entre el 24 de febrero y el 9 de marzo de 2017.

“Cuando la seguridad depende en cada caso de la apreciación individual de cada empleado de una organización, no hay eficacia ni coherencia”, afirmó Brett Hansen, vicepresidente de administración y seguridad de datos de terminales de Dell. “Estas conclusiones sugieren que las organizaciones deben educar a los empleados respecto de las mejores prácticas de seguridad de datos e implementar políticas y procedimientos que se centren principalmente en proteger los datos sin afectar la productividad de los empleados”.

El informe completo está disponible en http://dellsecurity.dell.com/dell-end-user-security-survey

jueves, 30 de marzo de 2017

Cinco consejos para tener una videoconferencia exitosa

La videoconferencia se ha convertido en un estándar de negocios en innumerables industrias. Realizar reuniones cara a cara es un elemento vital en la comunicación laboral, aunque los participantes se encuentran en puntos opuestos del globo. Existen cinco elementos básicos para el desarrollo de una videoconferencia exitosa:

1. FACILIDAD DE USO

La mayoría de los usuarios está de acuerdo en que una interfaz conocida y amigable le gana siempre a una menos intuitiva. Sin dudas, preferimos una experiencia de usuario familiar del tipo “pulse este botón para entrar en mi llamada”.

2. DISPONIBILIDAD DE OTROS PARA LLAMAR

Las soluciones de bajo costo y alta disponibilidad, con muchos usuarios, son vitales para el éxito de cualquier instalación de video. En el pasado, por ejemplo, el costo de la tecnología era prohibitivo para un uso masivo. Pero, ese ya no es el caso. Hoy, la capacidad de llamar a otros tiene que ser sencilla: si es demasiado complicado hacer una llamada, la gente simplemente no la hace.

3. CALIDAD DE AUDIO

Otro punto de suma importancia, es la calidad de los altavoces y micrófonos. Últimamente, estos dispositivos son tan sofisticados que pueden captar cualquier sonido en la sala, incluso aquello que no queremos oír como, por ejemplo, el teclado, el ventilador de la notebook, etc. Es por eso que, las soluciones de audio no solo deben amplificar las voces, sino también eliminar todo “ruido” posible.

4. CALIDAD DE VIDEO

Existen varios criterios que definirán la calidad de nuestro video, a saber: resolución, precisión del color, cuadros por segundo y latencia, variación de retardo y artefactos. Y, cada uno de ellos afecta de diferentes maneras:


  • Resolución: Definida como el número de píxeles en la pantalla. Cuanto mayor sea, más nítida será la imagen en cuestión. Estos valores pueden oscilar entre 720p o 1080p o, mejor aún, llegar a los 4K.
  • Precisión del color: Es bastante buena en las soluciones de video modernas en las que la iluminación es óptima.
  • Imágenes por segundo y latencia: Por lo general, trabajan en tándem, es decir, cuantas más imágenes, más naturales y más claros se verán los participantes de nuestra videoconferencia. Esto reduce la latencia y, fundamentalmente, evita la diafonía.
  • Variación de retardo y artefactos: Tiene que ver con el ancho de banda requerido. Cuando es mayor al disponible, la imagen se pixela generando un desajuste entre el movimiento de las bocas y las voces.

5. CAPACIDADES DE COLABORACIÓN DE DATOS

Para muchos usuarios, la posibilidad de colaborar con documentos en tiempo real se impone por sobre el aspecto del video. No obstante, es más importante la conexión emocional de una videollamada que el aspecto de los datos de una sesión.

En conclusión, el mercado de las videoconferencias está en un punto de inflexión. La nueva tecnología aborda a las videoconferencias con la misma facilidad de uso con la que se conecta una cámara web, asegurando alta calidad de audio y video.

Si bien el número de dispositivos específicos para videoconferencia ha disminuido en los últimos años, dada la necesidad de resolver los problemas de los usuarios, prevemos un importante crecimiento del sector en 2017

Por Maximiliano Hernández, Regional Manager Cono Sur en Logitech.


sábado, 25 de febrero de 2017

Tendencias 2017 para redes empresariales

2016 fue un año de grandes innovaciones para las redes empresariales. Puede sonar a cliché, pero la tecnología en redes ha dado pasos agigantados hacia la transformación digital y Cisco se mantiene como un jugador relevante con diversos lanzamientos e innovaciones reconocidas en la industria.

Gracias a la cercanía de expertos con clientes en diversos roles dentro de sus organizaciones (CIOs, CTOs, ingenieros y líderes de proyecto) así como con partners y proveedores de servicio, se cuenta con una clara perspectiva de las metas y retos que se presentan para este año. Esto en combinación con el conocimiento de los profesionales de Cisco nos permite tener una vista de las principales fuerzas que moldarán la evolución de las redes empresariales durante 2017:

1 – WAN Rediseñado: Muchas organizaciones están migrando sus aplicaciones a la nube y eso implica cambios significativos para su arquitectura de red de área amplia (WAN). Las tradicionales “zonas desmilitarizadas” en sus propios centros de datos aumentarán o en algunos casos serán reemplazadas por puntos de presencia alojados en instalaciones de terceros. Esto significa que ya no habrá necesidad de redes de retorno para tráfico destinado de la nube hacia el centro de datos y luego al Internet.

2 – NFV llega a las empresas: La virtualización es el tema de moda y con justas razones. Descubriremos que la Virtualización de Funciones de Red (NFV) se traslada de estar solamente en los proveedores de servicios para gestarse dentro de las empresas, comenzando en las sucursales. El NFV permitirá que las organizaciones con redes en múltiples sucursales realicen provisionamiento, encadenen o escalen servicios de red de una manera más sencilla.

3 – IoT hasta en la oficina: El Internet de las Cosas (IoT) se convertirá en un elemento vital como tecnología operativa para las organizaciones. Ahora los COOs comenzarán a evaluar cómo el IoT puede traer valor al lugar de trabajo (tu oficina). Ya sea a través de iluminación inteligente, servicios de geo-localización en sitio o sistemas interconectados de aire acondicionado. Veremos que las empresas aprovecharán los innumerables usos que tiene IoT originando una mayor consolidación de servicios, gracias a los mejores mecanismos de seguridad existente como la segmentación y el perfilamiento.

4 – SDN van más allá del Centro de Datos: Se empiezan a ver los beneficios reales de las redes definidas por software (SDN) tanto para los centros de datos como para las WAN. Se espera que estas mejoras se trasladen a los entornos de red alámbricos e inalámbricos para Campus. La visión de la programabilidad y automatización de punta a punta a través de todos los dominios de red comience a convertirse en una realidad durante este año.

5 – La seguridad en redes evoluciona y se mueve hacia la nube:  Nuevas oportunidades surgen gracias a los sistemas de auto aprendizaje (o machine learning). Durante el año veremos modelos de seguridad en redes con capacidades enriquecidas para la resolución de problemas. Al ofrecer estas capacidades desde la nube y aprovechar las experiencias agregadas de un conjunto más amplio de redes, veremos procesos de diagnóstico y remediación mejores y más rápidos.

6 – Los servicios basados en localización pasan del nicho al uso masivo: Los entornos de red inalámbrica para sectores como retail, salud, entretenimiento y turismo se beneficiarán de la tecnología de analítica basada en ubicación. Las mejoras en los equipos de WiFi junto con tecnologías como los Beacon Points de Cisco permitirán el uso de servicios de navegación y optimización de espacios.

7 – Voz sobre WiFi escalable: Con los servicios de Voz sobre WiFi (VoWi-Fi) teniendo soporte para más dispositivos tanto por fabricantes como por proveedores de red, veremos una importante mejora en la experiencia de usuario y el costo de roaming implícito para alcanzar una mayor utilización a lo largo del año, haciendo la transferencia de llamadas de red móvil a WiFi cada vez más sencilla y transparente.

8 – De “Administrador” a “Programador” de Red: A la vez que la programabilidad de redes y las SDNs son cada vez más predominantes se requiere de un nuevo conjunto de habilidades para sacarles provecho. Los administradores de red que puedan combinar un profundo conocimiento técnico en redes junto con capacidades en programación tendrán la oportunidad de mejorar sustancialmente las operaciones de red. Se espera que este año sea el punto de inflexión en el número de administradores de red que aprenden de programación a través de iniciativas como Cisco Learning Network.

9 – La programación se traslada del dispositivo al controlador: Mientras que la programabilidad de nivel dispositivo es la base para una red automatizada sostenible, se espera que mucho del enfoque durante este año sea hacia la programabilidad basada en el controlador. Así es cómo se logra la verdadera simplificación, escalabilidad y sofisticación de una red. La mayoría de las recientes innovaciones en programabilidad están sucediendo a nivel del controlador con un impacto en los servicios a través de la red más que a nivel de dispositivos individuales.

10- Despega el acceso inalámbrico de baja potencia: El acceso inalámbrico de baja potencia (LPWA) comienza a repuntar gracias al surgimiento de todas las posibles aplicaciones del IoT. Es una solución de gran escala y bajo costo ideal para sensores geográficamente dispersos y con un bajo volumen de datos donde se requiere un mayor periodo de vida de batería o un bajo consumo energético

viernes, 30 de diciembre de 2016

Cuáles serán las principales amenazas cibernéticas en 2017

De acuerdo con el informe Tendencias 2017: “La seguridad como rehén” de ESET, el ransomwarecontinuará siendo protagonista, aprovechándose del avance del IoT. Además, advierte como tendencia probable que los atacantes sigan sondeando la infraestructura crítica a través de las múltiples conexiones a Internet.
Entre los principales ejes temáticos del informe ESET destaca que de todas las acciones maliciosas del 2016, las más preocupantes tienen que ver con la disposición de algunas personas a participar de las siguientes tres actividades: secuestrar sistemas informáticos y archivos de datos (mediante ataques de ransomware); denegar el acceso a datos y sistemas (con ataques DDoS); e infectar dispositivos que forman parte de IoT. “Lamentablemente, creo que estas tendencias continuarán en 2017 y es posible que incluso se vayan combinando a medida que evolucionen”, dijo Stephen Cobb, Senior Security Researcher de ESET.
Por otra parte, advierte que el auge de las tecnologías de realidad virtual atrae una mayor cantidad de usuarios, por lo que se incorporan nuevos riesgos de seguridad que atañen no solo a la información digital, sino que incluso podrían trascender al bienestar físico del usuario. “Mientras estas aplicaciones concentran datos cada vez más sensibles, el malware móvil no deja de crecer y complejizarse, reforzando la importancia del desarrollo seguro”, dice el informe. “Aplicaciones vulnerables, aplicaciones maliciosas en mercados oficiales, vulnerabilidades en Android, entre otras, serán la escena común en 2017”, asegura.


IoT y ransomware en el sector de la salud
De acuerdo con la compañía, este año hubo un exceso de ataques de ransomware exitosos a una gran variedad de industrias, entre las cuales los centros de salud constituyeron un objetivo pretendido por los cibercriminales. “Si a estos eventos le sumamos la mayor cantidad de dispositivos médicos conectados a Internet, todo indicaría que este sector seguirá enfrentando desafíos de seguridad significativos en el futuro”, advierte.
“No podemos dejar de lado los dispositivos para monitorear la actividad física diaria de los usuarios, es una realidad que están recopilando grandes cantidades de información y muchas veces no de la manera más segura”, completa.
Amenazas para infraestructuras críticas
Así como este año Black Energy, un código malicioso utilizado en los ataques contra las compañías eléctricas ucranianas, provocó cortes por varias horas para cientos de miles de hogares en esa parte del mundo, para ESET la tendencia probable para 2017 es que los atacantes sigan sondeando la infraestructura crítica a través de las múltiples conexiones que tienen a Internet.


“Distintos tipos de atacantes seguirán buscando maneras de causar daño, denegar el servicio o secuestrar datos para pedir un rescate. También se espera que haya más ataques a la misma infraestructura de Internet, interrumpiendo el acceso a datos y servicios”, sostiene.
Finalmente, el informe da cuenta de los riesgos potenciales de consolas integradas a computadoras, de la mano de un mercado que en 2016, según Newzoo, se ha incrementado en un 8,5% durante alcanzando ingresos de casi US$ 100 mil millones. por lo que se convierte en un objetivo atractivo para que aparezcan amenazas que busquen robar información y generar beneficios económicos ilegales.
Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica, afirmó: “De nuestro análisis del estado actual y la evolución de la tecnología encontramos que por el hecho del crecimiento cada vez más acelerado en la cantidad de dispositivos y tecnologías, lleva a enfrentar mayores retos cuando se trata de mantener la seguridad de la información, por lo cual es necesario que los usuarios sean más conscientes de los riesgos y los fabricantes piensen la seguridad desde el diseño, independientemente del área de implementación”.

Corporacion Reimex Consolidada S.A.C. Distribuidor autorizado de licencas ESET Nod32 Antivirus http://www.reimexperu.com/licencias-software.html

miércoles, 28 de diciembre de 2016

Cómo evaluar una campaña de email marketing?

Uno de los errores más comunes que cometen los pequeños y medianos empresarios (incluso los grandes) a la hora de crear una campaña de marketing digital es olvidarse de su respectiva evaluación y sólo enfocarse en las ventas que ésta genere. Sin embargo, no realizar una adecuada evaluación puede disminuir la rentabilidad de cualquier herramienta de marketing que utilicemos, incluso de la más efectiva y redituable: el email marketing; cuyo promedio de retorno de inversión es de 44 dólares por cada dólar invertido.
Por ejemplo, si mandas tus campañas en las horas y/o los días de la semana en los que los clientes están más predispuestos a abrir sus correos electrónicos, más usuarios lo leerán. Sin embargo, estos datos sólo los sabrás si evalúas tu campaña.
Como expertos de email marketing, estamos seguros que generar una buena estrategia de marketing y ejecutarla no es suficiente. No evaluar una campaña nos impide conocer importantes aspectos como el engagement con los clientes y sus hábitos respecto al uso y revisión de su bandeja de entrada.
Para lograr resultados significativos, recomendamos una serie de parámetros que son de utilidad a la hora de evaluar una campaña de email marketing.
·         Cuántos abren los correos y en qué momento lo hacen: El ratio o la tasa de apertura de mails es el indicador que nos ayuda a saber cuántas personas abrieron el correo, incluso por horarios o días específicos. Conocer en qué momento del día tu audiencia es más susceptible a abrir tus correos te permitirá incrementar la tasa de apertura de mails.
·         Los que van más allá del correo: El Click-Through Rate (CTR) o tasa de clics es el porcentaje de personas que le dieron clic a las ligas adjuntas en tu email enviado. Un alto CTR significa que la información enviada es lo suficientemente relevante para tus contactos como para darle clic a las ligas, en busca de más información.
·         El tiempo que pasan en tu página: El tiempo que pasan los usuarios que llegaron a tu página desde tu email te ayudará a saber si el contenido es realmente del interés de tus contactos. Es decir, si llegaron allí gracias al correo enviado, pero abandonaron la página inmediatamente, debes esforzarte más en el contenido de tu sitio, pues probablemente no encontraron lo que esperaban.
·         Compartir el contenido: El indicador de reenvíos y participación en redes sociales sirve para medir las veces que los usuarios compartieron tu contenido vía correo electrónico y/o en redes sociales como Facebook, Twitter, Google Plus, LinkedIn, entre otras. Incluso, en algunas plataformas como iContact es posible darle seguimiento a los retuits generados.
Es importante mencionar que no todas las campañas tienen la intención de hacer que la gente compre, algunas únicamente buscan persuadir y dar a conocer a la empresa, así como motivarlas para que visiten el sitio web. Otro punto importante que nos gustaría resaltar es que una buena campaña de email marketing puede ser tan buena como las estadísticas que genera, por lo que se puede concluir que si no se toman en cuenta sus métricas y análisis de resultados, usted está perdiendo la oportunidad de medir su efectividad.
Al igual que con toda actividad de mercadotecnia, las campañas de email marketing sólo pueden mejorar si se cotejan los resultados reales con los objetivos previamente planeados. El email marketing, más allá de ser un gasto, es una inversión; con él se pueden medir qué tan efectivas han sido las campañas e identificar qué tanto se ha persuadido a la audiencia, al igual que facilita la identificación de las áreas de oportunidad, para mejorarlas.
Por Philip Rubín, Strategic Advisor de iContact.

sábado, 10 de diciembre de 2016

BSA: El 65% de software instalado en el Perú no tiene licencia

Muchos usuarios ignoran que el software irregular infecta sus equipos y redes con virus (troyanos, malware, etc).

“También se encontró que la razón principal para utilizar el software con licencia es evitar amenazas a la seguridad debido al malware”. Entre los riesgos asociados con el software sin licencia, el 64% de los usuarios a nivel mundial citó el acceso no autorizado por hackers como una de las principales preocupaciones, y el 59% citó la pérdida de datos.

Los potenciales clientes deben conocer los riesgos legales de usar software irregular.

“El año pasado, BSA alertó a más de 300 empresas en Perú acerca de potenciales situaciones irregulares en el uso y administración de sus programas de software, y aún tenemos varios cientos de empresas que se encuentran en análisis”, comentó Rodger Correa, Director de Marketing & Compliance para las Américas de BSA | The Software Alliance.

Para el presente año, la entidad incrementará sus esfuerzos, buscando desarrollar una red de aliados en los sectores público y privado que promuevan juntos una cultural de legalidad, haciendo énfasis en las oportunidades del software legal para las empresas y cada uno de los países en donde operan.

Es necesario mostrar una solución a sus potenciales problemas.

“BSA | The Software Alliance cuenta con una serie de herramientas, muchas de ellas gratuitas, voluntarias y confidenciales, que están orientadas a apoyar a las empresas, grandes, pequeñas y medianas,; a identificar y corregir posibles situaciones irregulares en el uso de los programas de software que muchas veces ni las mismas empresas pueden identificar”, señaló Correa.

10 CONSEJOS QUE OPTIMIZARÁN TU CONEXIÓN DE RED INALÁMBRICA

1. La clave está en la ubicación del router. Para obtener la señal más potente, un rendimiento óptimo y el área de cobertura más amplia es importante colocar el router en el centro del hogar, lejos de las paredes u otras obstrucciones. Por sobre todas las cosas deberás evitar colocarlo en un armario o en una oficina trasera.
2. Al usar la red, considera acortar la distancia entre el router y tus dispositivos inalámbricos. Si tu casa es grande la señal inalámbrica podría no alcanzar a llegar a todas las áreas del hogar, por ejemplo en la terraza o jardín. La solución la encontrarás añadiendo un extensor de alcance alámbrico, de esta manera amplificarás la señal Wi-Fi cubriendo más áreas de la casa y más allá del router, además de aumentar la
velocidad de la red.
3. Estar al día con las actualizaciones de las últimas tecnologías Wi-Fi. Con la proliferación de los dispositivos inalámbricos en el hogar, las actividades que usan un gran ancho de banda, como la transmisión de videos, que pueden disminuir las velocidades de la red. Si experimentas esto y tu router funciona con tecnología Wireless A, B, G o N, considera la opción de actualizarte a Wireless AC, ya que la capacidad es insuficiente para el uso que requieres. La tecnología AC te dará un enorme impacto en el rendimiento de tu red inalámbrica.
4. Revisa el módem o el paquete de servicio de Internet que contrataste. Es muy común que al contratar el servicio de Internet el proveedor te entregue un módem, durante la instalación. Si hace mucho tiempo que lo tienes es momento de actualizarlo. Por otra parte, si cuentas con un plan de Internet básico provisto por la empresa de cable y mayormente juegas o reproduces videos o audios es probable que necesites contratar otro servicio que brinde un mayor ancho de banda. Es importante saber que la velocidad del router es tan buena como la velocidad del módem o de tu plan de servicio de Internet.
5. Reduce la interferencia inalámbrica. Las redes inalámbricas vecinas, los teléfonos inalámbricos, los
microondas y los monitores de bebés pueden hacer interferencia con la señal y provocar una caída en la
cobertura. Puedes alejar el router de estos dispositivos si notas que eso soluciona el problema o bien, cambiar el canal y la SSID en el router.
6. Separa las aplicaciones que utilizan gran parte de la banda ancha. La reproducción de videos y de juegos puede utilizar una gran parte de la banda ancha, lo que hace que las velocidades inalámbricas sean más lentas para todos en el hogar. Intenta usar la herramienta de Priorización de medios, en routers Linksys Smart Wi-Fi, para dar preferencia a la mayoría de las aplicaciones que más la necesitan.
7. Optimiza las configuraciones del router y del adaptador. En el mejor de los casos, los routers Wireless-N se emparejarán con los adaptadores Wireless-N y los routers Wireless-AC con los adaptadores Wireless-AC. Sin embargo, en la mayoría de los hogares tienen una mezcla de dispositivos G, N y AC que están conectados a la red. Si esta es la situación, configura el modo de red inalámbrica del router en Mixed (redes combinadas). Si tienes un router de banda dual, simplemente coloca los dispositivos existentes en la banda de 2,4 GHz y la tecnología más reciente en la banda de 5 GHz.
8. Actualiza tu firmware. En algunas ocasiones, el firmware desactualizado puede causar un rendimiento pobre o caídas en las señales inalámbricas. Además, los fabricantes de los dispositivos pueden enviar actualizaciones inalámbricas a través de firmware/software. Actualizarlo es tan sencillo como lo haces con las aplicaciones de tu teléfono inteligente.
9. Aumenta la seguridad inalámbrica. Si alguien se está robando señal de Wi-Fi, puede causarte una reducción en la velocidad y la conectividad dentro de tu red doméstica y comprometer la información personal. Incluso si tienes contraseña, los hackers pueden encontrar la manera de ingresar a la red. Es importante que uses WEP, WPA o WPA2 como el modo de seguridad inalámbrico para mantener la
conexión como privada.
10. Configura reinicios automáticos. ¿Tienes que desenchufar y volver a cargar el router con frecuencia para
resolver los problemas con la velocidad o las bajas en la señal? Si es así, coloca tu router en un temporizador del tomacorriente para que se reinicie de manera automática una vez al día, a la semana o al mes. Programa esto mientras está en el trabajo o en la escuela para que no se interrumpa la señal inalámbrica cuando está en su hogar.
No es suficiente con sólo conectar el modem o router para contar con una red estable y eficiente que cubra nuestras necesidades, tampoco es forzoso tener conocimientos de ingeniería en sistemas para conseguirla. Linksys, marca experta en crear entornos de red robustos, comparte algunos sencillos consejos que te ayudarán a tener la mejor de las redes sin invertir demasiado tiempo, ni dinero.
Los problemas más comunes a los que puedes enfrentarte son por ejemplo experimentar una reducción en la velocidad al navegar en Internet, aumento de los intervalos y el tiempo de carga de la red inalámbrica, por mencionar algunos.