martes, 31 de diciembre de 2013

Como hackeaba la NSA todos los dispositivos del mundo

Según la información proporcionada por la revista alemana Der Spiegel dentro de la NSA (National Security Agency ; Agencia de Seguridad Nacional de los Estados Unidos de America) existía una unidad llamada ANT, cuyo significado parece ser Advanced Network Technology. El objetivo de esta unidad era encontrar la forma de hachear cualquier dispositivo: ordenadores de escritorio, portátiles, iPhones, centros de datos... todo. Para ello se dedicaron a crear una serie de hardwares y de softwares que les ayudaran en su tarea.



El catálogo completo de todos estos instrumentos que utilizaban se ha publicado ahora online gracias a la página LeakSource.

Primero que todo hay que saber que estos dispositivos y softwares datan del 2008 para los más antiguos y que permitían desde acceder al micrófono de nuestro teléfono hasta al disco duro de nuestro ordenador y almacenar todos nuestros datos. Además en el catálogo proporcionado por LeakSource se llegan a indicar los precios de estos aparatos, que pueden subir hasta los 250.000 dólares.

Aquí puedes ver algunos de estos dispositivos de espionaje: (catálogo completo aquí)

DROPOUTJEEP: se trata de un implante de software para el iPhone capaz de acceder a los SMS, a los datos de contacto, buzón de voz, datos de localización, micrófono, cámara... Para instalarlo se necesitaba acceso físico al iPhone, pero a la NSA no le bastaba y ya indicaba que "investigarán en el futuro cómo instalarlo de forma remota".

HEADWATER: un sistema que da acceso a los routers de Huawei. Es un dato importante porque recientemente Huawei amenazó con retirarse del mercado estadounidense por las actividades de espionaje de EE.UU.

 NIGHTSTAND: este hardware permite hackear una red WiFi y lanzar ciberataques. Funciona incluso a 12 kilómetros de distancia y el usuario no se entera.

Pues bien, a esto se dedicaba la agencia de seguridad de los Estados Unidos. ¿Seguridad? 


 

lunes, 30 de diciembre de 2013

Los 5 mejores juegos del 2013 para iOS

Para terminar este 2013 os vamos ha dejar los 5 mejores juegos para iOS que han salido este año. Esta selección es completamente personal y contestable pero estos son en mi opinión los mejores juegos y los que no deberían de faltar en vuestro dispositivo. Quiero aclarar que he tenido en cuenta para esta selección únicamente la experiencia de juego y he dejado de lado otros factores como pueden ser el precio o el espacio que ocupan en nuestro dispositivo, que sin embargo hay que tener en cuenta a la hora de instalar los. Allá vamos.



  1. Real Racing 3: es actualmente el juego de carreras más realista de toda la App Store, y con diferencia. Con unos gráficos dignos de una consola, nos ofrece un control total sobre los coches de nuestros sueños (por lo menos de los míos). Si te gustan los juegos de coches, este no puede faltar en tu smartphone o tableta. Descargar Real Racing 3  


  2. Fifa 14: por primera vez totalmente gratis, este juego nos ofrece la mejor jugabilidad en un dispositivo iOS en lo que respecta a juegos de fútbol. Con grandes gráficos y una gran experiencia online se ha convertido en el juego que he llevado en mi teléfono todo el año, y sin necesidad de comprar ningún contenido aparte del que nos ofrecen gratuitamente. Descargar Fifa 14 

  3. Infinity Blade III: la saga continua. Y mejora. Con mejores gráficos que la versión anterior (lo cual parecía imposible) y nuevas aventuras los desarolladores de Chair Entertainment han vuelto a hacerlo. Un juego que engancha y con comandos simples para una gran experiencia de juego. Descargar Infinity Blade III 


  4. Dots: en mi opinión el juego revelación de este año. Sin ningún precedente en la App Store (aunque es cierto que parece inspirado de Candy Crush) este sencillo juego en el que hay que conectar puntos, al más puro estilo Steve Jobs, te mantiene entretenido y enganchado sin necesidad de grandes gráficos ni de grandes historias. Descargar Dots 


  5. Grand Theft Auto: San Andreas: aunque salió prácticamente a finales del año, unas semanas le han bastado para consolidar se como uno de los mejores juegos del 2013. Con, en mi opinión,  los mejores gráficos para un dispositivo iOS, este juego nos permite exactamente lo mismo que su versión para consolas, es decir hacer lo que quieras en una cuidad. Descargar Grand Theft Auto: San Andreas 


    Estos son los mejores juegos que han pasado por mi teléfono durante este 2013, ¿cuales son los tuyos?



domingo, 29 de diciembre de 2013

7 tweaks de Cydia para iOS 7

Hace ya unos días que los hackers de Evasi0n lanzaron el Jailbreak de iOS 7 para todos los dispositivos y poco a poco los tweaks se van actualizando al nuevo sistema operativo, además de los nuevos que van apareciendo. En este post os traemos una lista de los tweaks que tienes que tener instalados en tu iDevice con iOS 7. 
Para obtener más información sobre cada tweak solo tenéis que hacer clic en el nombre de este para dirigir os a un video de YouTube que os explica en detalle el funcionamiento del tweak (eso si, en inglés) 



  1. HiddenSettings7 : este tweak te permite tener acceso a una infinidad de ajustes para personalizar por completo tu dispositivo. Desde la velocidad de las animaciones hasta las carpetas pasando por el efecto 'Parallax', puedes modificar todas las funciones del Springboard. 
  2. SwitchSpring : este tweak te va a permitir cerrar todas las aplicaciones abiertas en segundo plano, de una sola vez y de una manera muy sencilla. 
  3. FlipControlCenter : con este tweak vas a poder modificar los ajustes presentes en tu 'Control Center'. En vez de tener que limitarte a los que ofrece Apple por defecto (modo avión, WI-FI, bluetooth, no molestar, rotación), podrás controlar todos los ajustes que quieras. 
  4. Lock Screen Tool : este tweak te permite cambiar el texto que aparece en la pantalla de bloqueo. 
  5. Software Update Killer : este tweak impide a tu dispositivo actualizar el software (iOS). De esta manera te garantizas no perder el Jailbreak por una actualización involuntaria. 
  6. SwipeSelection : este tweak no es nuevo, pero es muy útil. Te permite deslizar el cursor por el texto que estés escribiendo con un simple 'swipe' sobre el teclado. De esta manera no tendrás que volver a usar la lupa de Apple. 
  7. MyWi 7 : este tweak te permite crear un 'personal hotspot' en el caso de que tu operador no te lo permita. 

    Estos son los tweaks para iOS 7 que me parecen a mi más útiles. Sin embargo, el numero es todavía muy reducido y esperamos que a lo largo del tiempo, los desarrolladores nos ofrezcan más y más tweaks con los cuales podamos sacarle todo el jugo a nuestro iDevice. 

    ¿Cuales son tus tweaks favoritos para iOS 7? 




jueves, 26 de diciembre de 2013

Se presentan los cargos contra Kim Dotcom por el caso MegaUpload

Kim Dotcom
Las autoridades de los Estados Unidos han pasado al ataque, dispuestos a amargar las fiestas de Kim Dotcom. El Departamento de Justicia de este país ha presentado un informe de 191 páginas con pruebas que pondrían al creador de Megaupload en un aprieto: correos, enlaces, archivos, conversaciones en Skype… todo tipo de información para indicar lo que pasaba dentro de los servidores del servicio que puso patas arriba las leyes de copyright.
El objetivo es claro: demostrar que Megaupload tenía una agenda oculta detrás de su fachada de “servicio para compartir archivos de gran tamaño”, moviendo grandes cantidades de dinero para beneficiar a aquellos que aportaban tráfico al servicio independientemente de si usaban archivos legales o pirateados.
kim dotcom megaupload
Como no son pocas, resumamos todas las acusaciones y acciones de la justicia de los Estados Unidos en una lista para hacerlo más fácil:
  • A pesar de haber impedido las búsquedas internas de ficheros en el servicio, Megaupload vigilaba el tráfico de su web proveniente de portales de enlaces piratas con los que tenía publicidad ypremiaba económicamente a los que subían más ficheros. Algunos correos muestran las negociaciones de esas recompensas, que empezaron siendo de 25.000 dólares en el 2006 para superar el millón de dólares cuatro años más tarde.
  • Hay correos en los que se discute cómo pueden escapar de las acusaciones de haber visto el contenido de los archivos que suben los usuarios durante la mudanza de todo el contenido adulto al portal alternativo Megarotic, que Megaupload utilizó para desviar todos los vídeos adultos. Antes de moverlo, todo ese contenido tenía que leerse. Y en teoría se prometía que nadie tenía acceso a la lectura de esos archivos excepto el que lo subía.
  • El departamento de justicia tiene antiguos usuarios de Megaupload como nuevos aliados, usuarios que antiguamente colaboraban intensivamente subiendo contenido pirateado al servicio a cambio de compensaciones económicas. Esos usuarios tienen detalles concretos acerca de cómo funcionaba el sistema de compensación y de las intenciones que tenía Kim Dotcom con toda esa actividad.
kim dotcom mega megaupload
  • Kim Dotcom ganó 42 millones de dólares con Megaupload en el 2010. Su CTO, Mathias Ortmann, ganí 9 millones. El diseñador Julius Bencko ganó más de un millón, y el programador Bram Van Der Kolk ganó más de dos millones. El responsable de márketing ganó algo menos, 400.000 dólares, por no ser accionista. Otras transacciones indican gastos opulentos como alquileres de yates en el Mediterráneo por valor de 616.000 dólares.
  • El portal Megavideo generaba 25 millones de dólares en beneficios de publicidad, pero los suscriptores de pago generaban 150 millones de dólares.
  • Megaupload recibía miles de solicitudes legales para borrar archivos pirateados, pero los responsables se limitaban a eliminar los enlaces conservando el archivo en los servidores. Hay correos confirmando el borrado de esos archivos, cosa que no llegaba a ocurrir. Pasaba más o menos lo mismo con cuentas de usuarios reincidentes en subir contenido pirata y ser descubiertos: Megaupload mentía cuando decía que había eliminado esas cuentas de usuario.
  • Cuando Megaupload creció tanto que se podía permitir eliminar algunas de las cuentas reincidentes, lo hacía pero siempre bajo unos límites para poder seguir obteniendo beneficios a nivel general. Hay correos que describen cómo se acepta subir el límite de archivos a borrar de 2.500 a 5.000 simplemente porque “se podían permitir colaborar con ese ritmo de crecimiento“.
Mega
  • Un ‘top 100’ de archivos más descargados en Megaupload mostraba archivos legales (tráilers de películas, versiones demo de algunos juegos), pero las pruebas indican que era una tapadera que ocultaba los archivos que realmente se usaban más. Ortmann, responsable técnico de Megaupload, admitía en un correo “una fachada inocente y una estructura interna privada“.
  • Hay correos que revelan cómo Dotcom y los directivos de Megaupload discutían la contratación de abogados especializados previniendo un evento como el que ocurrió, diciendo que “si supieran que ganamos millones cada mes irían enseguida a por nosotros“.
  • En otros correos incluso los directivos hablan sobre cómo ver algunas películas o series (concretamente DexterLos SopranoTaken o Seinfeld) utilizando Megaupload, con la reflexión de que “no eran piratas de la era moderna, sino que eran un servicio de logística que utilizaban los piratas de la era moderna“. Admitían también que había que limitar más la piratería, pero que entonces se eliminarían el 99,999% de los vídeos de Megaupload.
  • Megaupload incluso colaboró con investigaciones legales para tumbar a otros portales similares aportando pruebas contra ellos, eliminando así la competencia.
Megaupload
Para los que quieran entretenerse, aquí tenéis el documento completo con las acusaciones:
De momento los abogados de Megaupload ya han respondido diciendo que todas estas acusaciones son tergiversaciones de la realidad. El propio Kim también ha dicho la suya en Twitter, preguntándose irónicamente lo que se destaparía si las comunicaciones de Obama se destaparan de la misma forma con la que se ha destapado todo esto de Megaupload:

Tendremos que ver cómo progresa todo esto, pero viendo la cantidad de datos que se han sacado Megaupload lo va a tener difícil. Sobra decir que el futuro de Mega, bajo la influencia de Dotcom, también queda en entredicho.

domingo, 22 de diciembre de 2013

Evasi0n Jailbreak iOS 7 ya disponible

  • Un par de meses han bastado desde el lanzamiento oficial para que los chicos de Evasi0n hayan lanzado Jailbreak iOS 7.
  • Disponible para todos los dispositivos iOS con el último sistema operativo móvil de Apple instalado.
¡Por fin! Después de una larguísima espera ya está disponible Jailbreak iOS 7 para dispositivo móviles de Apple. Los desarrolladores de evasi0n se han puesto las pilas y han lanzado a pocos días de finalizar el año Jailbreak iOS 7 para iPhone, iPad y iPod touch con iOS 7 instalado. Una gran noticia que se ve como un regalo de Navidad anticipado para nuestros dispositivos iOS.
Era algo que todos estábamos esperando y ya se ha hecho realidad. Lo cierto es que desde el lanzamiento de las últimas versiones de iOS 7 los desarrolladores de evasi0n ya dejaron claro que no había ningún impedimento para realizar Jailbreak iOS 7 pero al parecer han estado ultimando todo antes de lanzar una versión definitiva. En su web ya está disponible todo lo necesario para descargar e instalar Jailbreak iOS 7.
Como es habitual, evasi0n nos hace una serie de recomendaciones comunes en estos casos, entre ellas:
  • Guardar una copia de seguridad de tu dispositivo iOS en iTunes o iCloud para poder restaurarla en caso de una mala instalación de Jailbreak iOS 7.
  • Desactivar la contraseña de bloqueo del dispositivo iOS antes de usar evasi0n ya que puede causar problemas en la instalación.
  • Si el progreso de la instalación de Jailbreak iOS 7 se ve interrumpido, reinicie el programa y el dispositivo para volver a ejecutar el proceso.
  • Mientras se realiza la instalación intente no utilizar el dispositivo iOS o iTunes.
  • Si se produce un error en OS X 10.8 diciendo que evasi0n Jailbreak iOS 7 no se puede abrir, haga control+click en la aplicación y en el menú contextual pulse Abrir.
En cuanto a la instalación, se puede realizar tanto en Mac, Linux o PC-Windows y tan solo nos llevará 5 minutos dependiendo de la antigüedad del dispositivo iOS en el que realizaremos la instalación de Jailbreak iOS 7.

Snapchat añade filtros y la posibilidad de ver dos veces una fotografía


Snapchat, la aplicación de mensajería efímera por excelencia, ha lanzado una actualización justo antes de las vacaciones. Esta actualización añade algunas características interesantes para muchos de sus usuarios, como la posibilidad de añadir filtros de color y para desaturar (blanco y negro) una imagen justo antes de enviarla.
También ha añadido algo que probablemente guste a algunos de sus usuarios: la posibilidad de volver a ver una imagen o vídeo, aunque haya finalizado su temporizador. Los usuarios podrán hacer uso de esta característica una única vez al día.
Hay quien dice que esta característica (Replay, se llama) rompe el principio del servicio: que un mensaje solo pueda verse una vez antes de desaparecer para siempre. Pero no se trata de una característica de la que pueda abusarse, por lo que los mensajes siguen siendo efímeros.
De paso, Snapchat añade una opción de flash frontal, simplemente iluminando la pantalla cuando hagamos una fotografía con la cámara frontal. Otros filtros que se han añadido son unos filtros especiales, que añaden un texto a la fotografía, con la temperatura, la hora a la que fue tomada la imagen o incluso la velocidad a la que viajaba el usuario cuando la tomó.
Esta actualización está disponible en la App Store y en Google Play.
Proximamente haremos un video ilustrando todo esto.

viernes, 6 de diciembre de 2013

Rumores: Samsung Galaxy S5

12 de diciembre del 2013. Esa es la fecha en la que el primer smartphone con pantalla 2K saldrá al mercado, el Vivo Xplay 3S. Para los que no sepan lo que es, una pantalla 2K es una pantalla con una resolución de 2560x1440 pixeles. Así de simple y así de complejo. ¿Y que tiene que ver todo esto con el Samsung Galaxy S5? os estaréis preguntando. Pues bien, parece ser que los surcoreanos están pensando en esta resolución para la pantalla de su próximo teléfono inteligente.


El 2014 se acerca, y esto implica nuevos productos y nuevos rumores. Hoy nos centraremos en el Samsung Galaxy S5, el próximo smartphone de gama alta de Samsung. Como ya hemos dicho antes este incorporaría una pantalla 2K. ¿Pero que supondría esto para el S5? Supongamos que el S5 tendría una pantalla de 5 o 5.2 pulgadas, algo totalmente factible, la pantalla tendría una densidad de pixeles por pulgada de 560 dpi. Teniendo en cuenta que el actual S4 tiene una densidad de 446 dpi, esto supondría una mejora más que considerable. Además, la incorporación por parte de Samsung de este tipo de pantallas obligaría a muchos fabricantes a adoptarlas también, para seguir siendo competitivos. El 2014 puede ser el año de las pantallas 2K...

Pero tratandose de Samsung tenemos que esperar mucho más que una simple mejora de pantalla. Una de las mejoras más deseadas por los usuarios parece ser que se hará realidad en esta generación del smartphone. Hablamos por supuesto de la incorporación de una carcasa unibody de aluminio. Así es, GSMArena afirma que tres empresas asiáticas están fabricando entre 10.000 y 30.000 carcasas de aluminio para el próximo producto de Samsung. Sin embargo, no podemos descartar que el próximo producto de Samsung no sea el S5, sino el rumoreado Samsung Galaxy F cuya principal característica sería justamente un diseño metalizado. 

Lo cierto es que a día de hoy las características del próximo Samsung Galaxy S5 siguen siendo una incógnita, pero estos dos rumores son los que más fuerza están tomando por internet en los últimos días. Sin dejar de ser rumores. ¿Que te gustaría que incorporase el Samsung Galaxy S5? 

jueves, 5 de diciembre de 2013

Windows Phone iguala a iOS en España

Este pasado lunes, Kantar World Panel publico la cuota de mercado móvil en España. Y estos datos vienen con sorpresa, o no. Como ya habéis leído en el titulo de este post, Windows Phone tiene la misma cuota de mercado que iOS en este 2013. Además, Android sigue siendo el dominador absoluto con 90,1% de cuota, aumentado así de 6,1 puntos desde el año pasado, y BlackBerry cae al 0,0%. Por si a alguien le quedaba alguna duda, esto demuestra que los canadienses están K.O.


Analicemos más en detalle el caso de Windows Phone. Siempre ha sido considerado como el tercero en discordia, dando por hecho que Android y iOS siempre estarían por delante. Pero esto esta cambiando. Ha cambiado. La plataforma de Microsoft ya esta a la altura de la de Apple, al menos en España, y los expertos vaticinan que el año que viene serán la segunda plataforma más usada en nuestro país. Lo cierto es que Windows Phone sigue creciendo de manera espectacular y ya a superado a Apple en algunos países como en Italia. Además, los desarolladores cada vez lo tienen más en cuenta y el numero de aplicaciones en la Windows Store es cada vez mayor.  

Sin embargo, ¿se puede unir Windows Phone a la batalla que mantienen iOS y Android desde hace años? 



miércoles, 4 de diciembre de 2013

Drones, ¿los próximos repartidores?

Mucho se ha hablado esta semana de drones y repartidores aéreos. Y todo por culpa de unas declaraciones del fundador de Amazon en las que asegura que están trabajando en un sistema de repartición mediante vehículos no tripulados. 



"Sé que esto parece ciencia-ficción, pero no lo es", declaró Jeff Bezos. "Podemos entregar en media hora, y tenemos la capacidad de transportar objetos que pesen hasta 2,3 kilogramos, lo que representa 86% de nuestros envíos", agregó el ejecutivo.
En realidad si que parece ciencia-ficción: no nos imaginamos un platillo volante llegando a la puerta de nuestra casa con nuestro nuevo smartphone que acabamos de comprar hace media hora. Pero la realidad es que Amazon esta trabajando en ello y apuestan fuerte por su nuevo modelo de repartición. 
Y no son los únicos. Apenas un día después de estas declaraciones, Amazon ya tiene competencia. Un portavoz de UPS, la compañía de transporte de paquetes, ha afirmado que su empresa planea incorporar repartidores voladores a corto plazo. Además ha añadido que están dispuestos a invertir grandes sumas de dinero para que el  desarrollo de este proyecto llegue a buen puerto. 

Sin embargo el futuro de estos drones es cuanto menos incierto, y es fácil imaginarse a uno de estos equivocándose de dirección y 'regalándole' un nuevo teléfono a algún afortunado. Así pues, los expertos piensan que estos aparatos se acabaran utilizando para transportar productos en las fabricas o en los aeropuertos, pero que nunca llegarán hasta nuestras casas. ¿Que piensas tú?

lunes, 2 de diciembre de 2013

Stuxnet: historia del primer arma de la ciberguerra

Ataque Stuxnet
En 2010 salía a la luz Stuxnet, un malware que había infectado la central nuclear Natanz, en Irán. El grupo de seguridad Langner ha estado durante todo este tiempo investigando qué hacía y cómo burló los sistemas de seguridad, y finalmente han publicado un análisis exhaustivo de lo que ha pasado.
Stuxnet viene con sorpresas. Hoy vamos a repasar ese análisis y tratar de explicar la historia de lo que ya se considera el primer ciber-arma, un precedente de lo que los gobiernos tendrán que enfrentar durante los años venideros.

¿Qué hacía Stuxnet?

EsquemaAtaqueStuxnetEsquema del ataque de Stuxnet: A través de los sistemas informáticos, manipulamos los sistemas de control para aprovechar vulnerabilidades a nivel físico.
Siempre que hemos oído hablar de Stuxnet hemos oído que “infectó una central nuclear”. ¿Qué significa exactamente eso? ¿Qué conseguían los creadores de Stuxnet al infectar la central?
Según la investigacion de Langner, el propósito de Stuxnet era retrasar el programa nuclear iraní. Para entenderlo mejor tenemos que hablar del diseño de la central de Natanz. No profundizaremos demasiado, pero si os interesa el análisis en PDF tiene toda una sección dedicada al funcionamiento de la central.
La central iraní usa centrifugadoras para enriquecer uranio. El diseño es el IR-1, originalmente desarrollado en Europa en los años 60, robado por A.Q. Khan, un traficante de secretos nucleares, que lo entregó a Irán en los 80. Los ingenieros iraníes no lograron dominar la complejidad del sistema por completo y no lo pudieron poner a funcionar pleno rendimiento. Sin embargo, sí consiguieron producir esas centrifugadoras a escala industrial, de tal forma que podían sustituirlas más rápido de lo que se rompían.
Y es que otro de los problemas de esas centrifugadoras que fabricaba Irán es que no eran muy robustas. Se rompían con relativa facilidad, así que idearon un sistema que las aislaban y permitían a los ingenieros reemplazarlas. Sin embargo, para poder hacer eso había que parar las centrifugadoras de la siguiente etapa a la que hubiese fallado.
El diseño de la central de Natanz tenía dos puntos débiles: la resonancia en los rotores y las válvulas de escape
Al parar las centrifugadoras, la presión del sistema subía y los rotores sufrían más daño. Si la presión superaba un límite máximo podría llegar a explotar la instalación. Hubo que diseñar válvulas que liberasen la presión si subía por encima de un límite. Estas válvulas son elprimer punto débil del diseño de la central de Natanz.
El otro punto débil eran los rotores de las centrifugadoras. El diseño del IR-1 es supercrítico: para llegar a la velocidad normal de operación (63.000 rpm), los rotores pasaban por varias velocidades críticas o armónicos. A estas velocidades se producía un fenómeno de resonancia que hacía vibrar los rotores. Como podréis imaginar, esto no les sentaba muy bien. Estas velocidades son el segundo punto débil de la central.

Primera versión de Stuxnet: agresiva pero discreta

La primera versión de Stuxnet tenía como objetivo los controladores industriales Siemens S7-417, los encargados de controlar las válvulas y sensores de presión de las centrifugadoras. En aquel entonces, Stuxnet venía en forma de un archivo de configuración para el software de Siemens. Por fuera parecía normal, pero explotaba algunos fallos para poder ejecutar sus acciones.
La infección de esos controladores fue muy poco glamurosa: alguien tuvo que abrir manualmente ese archivo de configuración, ya fuese a través de un USB o llevándolo guardado en uno de los portátiles que se usaban para configurar los sistemas. Stuxnet no tenía por aquel entonces ningún método de autopropagación.
Cuando el archivo malicioso se cargaba, se saltaba el código propio de la ejecución y tomaba el control del sistema, pero de forma muy discreta. Reemplazaba las funciones del sistema que permitían al código legítimo acceder a las lecturas de los sensores, y despúes dejaba que todo se ejecutase normalmente como si no pasara nada.
Sin embargo, cuando se daban una serie de condiciones, Stuxnet entraba en acción. Grababa 21 segundos de lecturas de los sensores y entonces los reproducía en bucle. Más concretamente, sobreescribía las regiones de memoria en las que se almacenaban los datos leídos con los que había grabado. De esta forma, cuando el sistema de control SCADA (en otro ordenador, externo al controlador Siemens) pidiese las lecturas, el controlador devolvería las lecturas reproducidas de Stuxnet y ni los ingenieros ni los sistemas automáticos verían nada anormal.
Una vez que Stuxnet había echado el telón, se ponía a trabajar aislando etapas de las centrifugadoras, de tal forma que la presión del sistema comenzaba a subir. En este momento, las válvulas de escape deberían actuar y dejar salir el exceso de presión. Pero no lo hacían.
Estas válvulas tienen sensores de presión analógicos: para traducir esa señal a una digital que pueda entender un ordenador tienen que calibrarse manualmente. Stuxnet los descalibraba, de tal forma que las válvulas no detectaban presiones anormalmente altas y por lo tanto no se abrían. La presión dentro del sistema empezaba a subir hasta que Stuxnet decidía parar el ataque. ¿Por qué?

Stuxnet aprieta pero no ahoga

Los creadores de Stuxnet podrían haber destrozado totalmente las instalaciones nucleares de Natanz. Sin embargo, no lo hicieron porque había otra forma mejor de conseguir sus propósitos: retrasar el programa nuclear iraní.
Stuxnet sólo dañaba discretamente los sistemas para reducir su vida útil.
Un fallo catastrófico en la central habría llevado a los ingenieros a analizar exhaustivamente qué había pasado, y probablemente habrían detectado y corregido el problema. Esto, junto con la capacidad iraní de producción de centrifugadoras, habría supuesto un retraso no demasiado grande.
Stuxnet simplemente modificaba periódicamente las condiciones de las centrifugadoras, causando mucho más estrés a los rotores y provocando fallos y reemplazos más frecuentes. De esta forma, lograban tener a los ingenieros frustrados buscando qué provocaba una tasa de fallos tan grande en los sistemas (obviamente, no buscaban malware sino fallos en el diseño o construcción) en lugar de avanzar para mejorar el rendimiento de la central.

Versión 2: la NSA toma las riendas

Langner menciona en el análisis que mientras la primera versión de Stuxnet parece hecha por un grupo de expertos industriales y programadores, en la segunda se aprecia la influencia de gente muy relacionada con el mundo de la seguridad. Los sospechosos principales son los ingenieros de laNSA.
La primera diferencia de la versión 2 es el método de propagación. Parece ser que perdieron el acceso directo a los sistemas de la central, así que tuvieron que inventar otro método para infiltrarse.
Usando cuatro vulnerabilidades 0-day (no descubiertas previamente), Stuxnet infectaba unidades USBpara transmitirse de un ordenador a otro. Además, usaba una vulnerabilidad en el sistema RPC de Windows para infectar a los ordenadores de una misma red privada (conectados por un mismo router).
Y por si esas cuatro vulnerabilidades fueran pocas, Stuxnet también había sido firmado con certificados digitales robados. De esta forma, Windows lo detectaba como un driver legítimo y confiable y no notificaba al usuario de la infección.
Stuxnet se movía ahora por redes privadas y confiables. Pero sigue habiendo un problema: ¿cómo llevarlo hasta la central de Natanz? Desde luego, pasar todos los sistemas de seguridad no era fácil. Pero había otro punto débil: contratistas externos que trabajaban en la central. Infectando uno de sus ordenadores, menos protegidos, Stuxnet acabaría entrando más tarde o más temprano en los sistemas de Natanz: sólo hace falta que ese contratista conecte su portátil o su USB a un ordenador de la central. Entonces sería cuestión de tiempo que Stuxnet llegase a su objetivo, los controladores Siemens S7-315.
Stuxnet hacía pasar a los rotores por varias velocidades críticas una vez cada mes para aumentar el estrés que sufrían
Estos controladores se encargaban de los rotores, el segundo punto débil que habíamos comentado antes. Más o menos una vez al mes, Stuxnet tomaba el control del sistema que se encargaba de gestionar la velocidad de los rotores. Reducía la velocidad hasta casi pararlos (120 rpm) y después los llevaba de nuevo a la velocidad normal. Como comentamos antes, para llegar ahí los rotores pasan por varias velocidades críticas que los hacen vibrar y por lo tanto los dañan reduciendo su vida útil.
En este caso, Stuxnet no necesitaba falsificar las lecturas de velocidad de los rotores. Como normalmente los rotores operan a un número constante de revoluciones por minuto, no hacía falta reproducir lecturas anteriores. El malware simplemente se encargaba de que no se ejecutase el código que actualiza en memoria las lecturas de velocidad.
Como el software de control SCADA obtenía los valores de las lecturas de la memoria y no comunicándose con los sensores del rotor, siempre obtendría la misma lectura, la de la última vez que se actualizó. Por lo tanto todo parecería normal a ojos de cualquier sistema de monitorización, automático o humano.

¿Sigilo? ¿Para qué?

Tráfico sospechoso de StxunetTráfico sospechoso de Stuxnet
La segunda versión de Stuxnet no era precisamente sigilosa. Como alguno ya se habrá imaginado, llevar varios cientos de rotores de 63.000 rpm a 120 rpm no es algo que pase desapercibido si estamos atentos al ruido que hacen. Sin embargo, los ingenieros iraníes llevaban auriculares protectores siempre y no oían los cambios de velocidad.
Además, Stuxnet se comunicaba a través de la red para sincronizar los ataques en varios controladores al mismo tiempo, lo que generaba un tráfico sospechoso y fácilmente detectable si se estuviese monitorizando.
La NSA no podía desactivar Stuxnet ni evitar su expansión a otros ordenadores fuera de Natanz
El análisis de Langner también ha revelado que Stuxnetno tenía ningún tipo de “interruptor” que permitiese a sus controladores desactivarlo. De hecho, en agosto de 2010, el ISP nacional iraní bloqueó las direcciones IP de los servidores de control de Stuxnet, de tal forma que el malware pasó a ejecutarse autónomamente desde entonces.
Tal y como estaba diseñado Stuxnet, se transmitía entre redes privadas sin ningún tipo de discriminación. Precisamente a través de esos contratistas externos con los que entró a Natanz, también logró salir y expandirse cada vez un poco más, con pequeños saltos que lo hicieron llegar finalmente a las compañías de seguridad informática que lo sacaron a la luz.
Todo esto nos hace pensar que los creadores no estaban ya tan preocupados por no ser detectados, sino que estaban viendo hasta dónde podían llegar con esta creación. Estaban experimentando con lo que ya sabían que sería el primer paso de la ciberguerra.

El pionero de la ciberguerra

Stuxnet se puede considerar el primer ciberarma. Es el pionero en este mundo, y señala varios puntos e ideas en los que centrarán sus sucesores en el futuro.
Lo primero es la muestra de lo vulnerables que pueden llegar a ser los sistemas industriales. Los fallos de los que se aprovechó para introducirse en los controladores Siemens son fallos de diseño de software, no simples bugs, y por lo tanto es más difícil que se corrijan con un parche aplicado rápidamente. El fabricante de ese software de control se mostró muy reacio a reconocer y corregir esos fallos, lo que nos da una idea de hasta qué punto pueden llegar a ser vulnerables los sistemas de control industriales.
Por otra parte, también tenemos el problema de la seguridad y el control de acceso a esos sistemas. La segunda versión usó varias vulnerabilidades 0-day en Windows, pero la primera se introdujo manualmente y sin tanta virguería informática. Hay muchos puntos de acceso a esos sistemas vulnerables y es muy difícil controlarlos todos.
Y todo esto ha ocurrido en una central nuclear. Imaginad qué puede ocurrir en otro tipo deinfraestructuras civiles menos protegidas. Este tipo de infraestructuras también son mucho más vulnerables por la estandarización: es mucho más fácil conseguir los diseños y encontrar fallos de los sistemas en ellas que en centrales nucleares ultrasecretas.
¿Y los recursos necesarios para preparar Stuxnet? En este caso específico sólo un Estado ha podido crear el malware, ya que según Langner se habría necesitado hasta una copia real de la planta de enriquecimiento para probar los efectos de las modificaciones ejecutadas por Stuxnet. Pero si un atacante no quiere ser tan sigiloso como fueron los creadores de Stuxnet y no quiere atacar una planta de enriquecimiento secreta, no necesitará tantos recursos. La capacidad de crear ciberarmas similares a Stuxnet no es exclusiva de las agencias de seguridad estatales.
Como decíamos, Stuxnet es todo un pionero y el que ha marcado los pasos a seguir para las futuras ciberarmas. Veremos cómo reaccionan los Estados y los fabricantes de sistemas de control industriales frente a esta nueva amenaza.

martes, 26 de noviembre de 2013

Intel cambia de rumbo: abrirá sus fábricas a otros fabricantes

Según Reuters con declaraciones del CEO de la compañía, Brian Krzanich,Intel abrirá sus fábricas de chips a otros fabricantes, quienes podrán diseñar sus propios microprocesadores para que éstos aprovechen la infraestructura de Intel.
El movimiento, de corte más financiero que técnico, irá implementándose progresivamente como una medida para revitalizar los ingresos, afectados significativamente por la llegada de ARM hace unos años y la nueva era de los smartphones y tablets en la que Intel ha tardado en reaccionar. No se mencionan otros fabricantes o diseñadores concretos, aunque por ejemplo Apple tiene muchas papeletas para participar en este programa: sus últimos movimientos por acercarse al made in USA 100%encajan a la perfección con la mayoría de fábricas de Intel, actualmente situadas en el territorio norteamericano.
En 2012 Intel fue el primer fabricante de chips del mundo, seguido por Samsung, Qualcomm y en cuarto lugar Texas Instruments, según un estudio de iSupply. La tendencia prevista de cara al futuro es que el mercado de tablets y smartphones continúe su crecimiento, con lo que los equipos PC — y en general la arquitectura x86 — mantendrán su cuota o incluso puede que se reduzca tímidamente. El mercado está evolucionando y, si bien Intel siempre ha sido la gran protagonista del sector de los microprocesadores y semiconductores en las últimas décadas, el cambio es necesario y se efectuará en los próximos años.
Por ahora no hay detalles sobre qué fabricantes acompañarán en esta nueva aventura a Intel ni tampoco se sabe cuándo empezarán los acuerdos a hacerse efectivos. El anuncio es oficial pero estamos ante un proceso de cambio y adaptación que puede ser complejo y largo, con lo que no podemos esperar que los resultados estén disponibles a corto plazo.

sábado, 23 de noviembre de 2013

Kim DotCom ya ha anunciado su nuevo proyecto, BaBoom


La cabeza de Kim Dotcom no deja de maquinar. En esta ocasión, como en las otras, la estrategia pasa por permitir a los usuarios la descarga gratuita de música. Actualmente, el fundador de Megaupload y de Mega se encuentra trabajando en un nuevo proyecto llamado Baboom, cuyo principal objetivo es el de ofrecer música gratis a los usuarios y al mismo tiempo, remunerar a los artistas de manera más justa. Para financiar este modelo de negocio, Dotcom ha ideado un nuevo sistema que se basa en la publicidad. Por lo visto, el polémico personaje tiene pensado secuestrar los anuncios que las empresas ponen en distintos sitios de Internet y suplantar cada banner con el de aquellas empresas que estén dispuestas a colaborar con Baboom. De este modo, para utilizar el servicio, los usuarios tendrán que instalar un plugin en su ordenador para obtener dinero virtual que después podrán gastar comprando canciones.Es el mismo sistema que había con MegaKey que permitía tener Happy Hours en MegaUpload. Kim Dotcom se ha sincerado en una entrevista concedida a Wired

Dotcom lleva 3,5 años y medio trabajando en el desarrollo de Baboom, un proyecto que solo se ha visto obstaculizado por la polémica de Megaupload y por consecutivos parones. Por lo demás, resulta que Dotcom cuenta con un equipo de 22 personas en Portugal trabajando en el desarrollo del sitio. La idea es crear un híbrido entre iTunes y Spotify, con la diferencia, en este caso, de que los artistas podrían mantener hasta un 90% de las ganancias, cosa que no ocurre con el resto de plataformas vigentes. Para ello, bastaría con que los usuarios instalaran dicho plugin, capaz de sustituir los anuncios que normalmente aparecen en Internet por los de sus anunciantes. Estos últimos podrán acudir al sitio para contratar publicidad, al igual que lo hacen con otros servicios como AdWords de Google. Con la visualización de estos anuncios, los usuarios obtendrán un dinero virtual que les permitirá adquirir hasta diez álbumes al año sin tener que abonar ni un céntimo. En este caso, además, serían los propios artistas los encargados de poner precio a sus trabajos. Nunca el usuario.
Parece evidente que este nuevo sistema podría gustar a los músicos, pero pondría sobre la mesa un nuevo conflicto: el de los anunciantes que pagan por añadir su banner a un sitio determinado y que verían secuestrada su publicidad para dejar paso a otros anunciantes. Veremos en qué queda todo esto. De momento, Dotcom ya ha avanzado a Wired que el lanzamiento de esta nueva plataforma llamada Baboom podría materializarse dentro de muy pocas semanas, justo en enero de 2014. Con todo, el fundador de Mega estaría interesado en sacar a relucir su propio trabajo discográfico para estrenarBaboom y dar a conocer, más adelante, una colección más amplia de música perteneciente a otros artistas.
Por lo demás, Dotcom y su equipo siguen centrando sus esfuerzos en Mega, un servicio que pretende desafiar el liderazgo de MegaUpload, cuyo récord final fue de 180 millones de usuarios registrados. A un ritmo de 20.000 nuevos usuarios diariosDotcom espera superar la cifra de su antecesor dentro de un año o quizá 18 meses más.

jueves, 21 de noviembre de 2013

Xbox One vs PS4: Primera Entrega


Ya tenemos con nosotros la nueva generación de las consolas de sobremesa.La PS4 de Sony y la Xbox One de Microsoft competirán a partir de ahora por ganarse a los usuarios de este tipo de dispositivos, y es un buen momento para reflexionar sobre las bazas que cada una de ellas esgrime.
Las comparaciones entre ambas propuestas son inevitables, y aunque se trata de consolas muy similares en su concepción y filosofía —no ocurre lo mismo con la Wii U, de la que hablaremos más adelante— existen diferencias en varios apartados que pasamos a explorar en las siguientes líneas.

El hardware es sin duda una de las claves del éxito de estas consolas, y de hecho muy prontotendremos un análisis específico que compara las configuraciones de ambas propuestas y las ventajas y desventajas de las decisiones que Sony y Microsoft han tomado en sus soluciones. Pasaremos pues a hablar del resto de apartados que, por supuesto, son también críticos para ganar esa particular batalla en el mundo de las consolas de sobremesa.

Más allá de los videojuegos

Hace tiempo que tanto Sony como Microsoft descubrieron que una consola podía hacer mucho más que hacernos disfrutar con los videojuegosLa oferta de servicios de vídeo y televisión en ambas propuestas es otro de los puntos clave de esa batalla por el mercado de las consolas next-gen.
Xbox One vs PS4
La Xbox One ha recogido el testigo de su predecesora en esa ambición por convertirse en un centro de entretenimiento total. Los juegos serán una pata importante, sí, pero también lo será el acceso a contenidos multimedia e incluso la interacción social (Skype es una de las claves en ese sentido) con otros usuarios de la consola.
Esa apuesta multimedia llega en dos partes: la primera, la presencia de la oferta de películas, música y series de Xbox LIVE. El servicio online de Microsoft ha ido convirtiéndose gradualmente en un poderoso complemento en ese apartado, pero en la Xbox One hay una sorpresa. Se trata de la entrada HDMI que permitirá conectar, sobre todo, sintonizadoras TDTcuyos programas podremos ver, grabar y controlar directamente en la consola. La consola de Microsoft se convierte en una especie de dispositivo-pasarela, dando posibilidades interesantes de disfrute de esos dispositivos conectados al puerto HDMI IN.
Esa apuesta por funciones PVR (Personal Video Recorder) fue patente durante la presentación inicial de la Xbox One en el mes de mayo, y de hecho provocó un pequeño cataclismo entre los seguidores de la consola: ¿qué ocurría con los juegos? En realidad, nada. El anuncio de la Xbox One y su presentación acabaría siendo doble, con esa primera parte centrada en temas multimedia, y una segunda, celebrada durante la feria E3, absolutamente centrada en los juegos que llegarían con el lanzamiento definitivo de la consola.
Por su parte, la PlayStation 4 de Sony ha sido más conservadora en este apartado, y el enfoque de los nipones es claramente el de los videojuegos. La oferta de adquisición y alquiler de contenidos vía la tienda PSN se mantiene, pero también en este sentido Microsoft ha ido consiguiendo más y más acuerdos con las grandes distribuidoras de contenidos sobre todo en EE.UU., donde este apartado está especialmente desarrollado.
Una de las ventajas que esgrimía la PS3 en la actual generación de consolas era su inclusión de una unidad Blu-ray, el formato que trató de impulsar y que se situaba como un punto importante del valor añadido de la consola que obviamente incidió en el precio inicial de estas consolas.
Aunque el formato no ha tenido ni mucho menos el tirón que tuvo el del DVD sí que se ha convertido en el estándar de facto en la industria, aunque ahora Microsoft sí se ha subido al carro de las unidades BD e incluye una unidad de este tipo, algo que también le da más margen a la hora de aprovechar al mayor capacidad de estos discos para el almacenamiento de juegos.
Y aunque parezca una característica menor a priori, la Xbox One soportará de inicio lareproducción del formato MP3 y también de CDs de audio, algo que no será posible en la PS4 inicialmente, aunque los responsables de Sony ya han prometido que están trabajando en esa característica tan demandada por parte de los usuarios.

Cámaras, gestos y promesas

Microsoft le dio nueva vida a su Xbox 360 con Kinect. El periférico —que aparecía tras el inicial éxito arrasador de la Nintendo Wii y su control por gestos— introducía nuevas posibilidades en el mundo de los videojuegos. No sólo eso: la empresa de Redmond acabó convirtiendo Kinect en un accesorio mucho más ambicioso y que podía aplicarse a todo tipo de escenarios reales como la telemedicina o la telerehabilitación.
Cámaras PS4 y Xbox One
Sin embargo, el papel de Kinect en la Xbox 360 siempre fue secundario: el catálogo de juegos compatibles ha sido para muchos decepcionante, y las posibilidades de su reconocimiento de voz o gestos para la interfaz también han pasado bastante desapercibidas, algo que Microsoftquiere corregir con Kinect 2.0, la nueva versión de este periférico que llega con mejoras notables en el hardware y en el software.
Este accesorio en realidad ya no lo es, puesto que se convierte en una extensión de la propia consola. Kinect 2.0 no solo es mejor: también es obligatorio en todas las Xbox One, una decisión comprometida de Microsoft que dio lugar a muchas críticas.
Eso tiene clara incidencia en el precio final de la consola, pero Microsoft asegura que Kinect tendrá mucha más relevancia en su nueva consola en todos los escenarios. Las demos de presentación así parecen indicarlo —el control por voz, disponible desde el principio en nuestro idioma, es especialmente llamativo— pero queda por ver si los desarrolladores de juegos logran aprovechar realmente el potencial de un sistema que a priori parece mucho más preciso y que podría por fin cumplir esa promesa de “inmersión” que muchos vislumbramos con la primera edición de Kinect.
Por su parte, la PlayStation 4 Camera es un periférico opcional (59,99 euros) que es muchomás humilde y modesto en su concepción. Los primeros análisis dejan claro que el reconocimiento de voz y gestos es muy limitado, y casi al nivel de la primera versión del software de la Kinect original para la Xbox 360.
Sin embargo, la propia concepción de este accesorio parece demostrar lo poco claro que Sony lo tiene en este apartado. La tercera iteración de este periférico —que nunca ha acabado de cuajar en sus ediciones anteriores— parecía más algo que poder decir que tenían que algo que realmente tuviera sentido incluir. La empresa nunca ha hecho especial hincapié en las posibilidades de la PlayStation Camera, y parece como si ni sus propios responsables tuvieran esperanzas en que se convierta en un periférico realmente relevante, algo que por supuesto también le puede ocurrir a Kinect.
Lo cierto es que aun cuando Kinect 2.0 parece especialmente prometedor, seguimos encontrándonos en un punto en que este tipo de periféricos no han demostrado su valor real. Moverse por los menús de ambas consolas a base de gestos a lo Minority Report es muy bonito y queda fantástico como demo para los amiguetes, pero a priori parece evidente que moverse con el mando es siempre mucho más rápido e incluso cómodo. Las comparaciones aquí favorecen a la Xbox One, pero son muchas las dudas sobre si el papel de Kinect será realmente relevante en la nueva iteración de la Xbox.

Difícil hacer mandos mejores

Otro de los puntos críticos de las consolas es el de sus mandos de juego, que se hanremozado de forma importante sobre todo en el caso del modelo pertenenciente a la consola de Sony.
Xbox One vs PS4
El nuevo DualShock 4 está acogiendo críticas excelentes, y quienes lo han probado afirman que es el mejor mando de la historia de Sony.
Entre las razones están tanto su renovado diseño como su touchpad y, por supuesto, ese novedoso botón Share, una apuesta personal de Sony que podría funcionarle muy bien a la hora de fomentar el componente social (y también muchos “piques”, por supuesto) entre amigos y conocidos que tengan la consola.
Menos revolucionario es el mando de la Xbox One —hemos sabido que podría haber sido mucho más ambicioso—, que conserva muchas de las prestaciones y elementos del de las Xbox 360 pero que añade algunas mejoras a la respuesta táctil con la vibración integrada en los gatillos. Esta tecnología de respuesta háptica permite integrar vibraciones localizadas en cada gatillo para aumentar esa respuesta táctil en diversos juegos.
Más anecdótica resulta la posibilidad de conectar hasta ocho mandos a una misma Xbox One, ya que está por ver qué juegos —suponemos que títulos arcade— logran aprovechar ese modo de juego con hasta 8 jugadores en una misma partida.

Tendencias: segunda pantalla y redes sociales

Tanto Microsoft como Sony han realizado esfuerzos singulares en dos apartados que por ahora son meras tendencias y que aún tendrán que demostrar si se convierten en valores añadidos relevantes para sus respectivos productos.
PS Remote
El primero de ellos es la segunda pantalla, algo en lo que Nintendo ha basado buena parte del valor de su Wii U y que por el momento no parece haber convencido a los potenciales compradores de esta consola. Esa experiencia en la cual nuestro móvil, tablet o una consola portátil (la PS Vita, en el caso de Sony) puede convertirse en parte esencial del juego resulta curiosa, pero por el momento los análisis de este tipo de soluciones no presentan argumentos suficientes para justificar su validez.
Microsoft cuenta con la aplicación móvil SmartGlass que convierte a cualquier tablet o smartphone con dicha solución en una extensión de la consola. No solo para juegos: podremos controlar los canales o el volumen si vemos la televisión sin tener que mostrar los menús en la tele, como si nuestro teléfono se convirtiera en un caro mando a distancia táctil. En juegos las posibilidades van también por ese camino —más como dispositivo de gestión de menús que como sistema de juego remoto, parece— y por lo tanto el interés de estas soluciones parece a priori modesto.
En Sony la apuesta en este caso es algo más interesante con una aplicación también disponible para smartphones y tablets, pero sobre todo con la utilización de la PS Vita como segunda pantalla real pudiendo disfrutar del juego de la PS4 en la pantalla de esta consola portátil. Muy similar a la Wii U en este caso, aunque por supuesto la PS Vita cobra sentido también si no usamos (o no tenemos) una PS4.
El segundo de los apartados citados era el de esa faceta social que Microsoft y Sony quieren dar a sus consolas. La Xbox One permite con un “Xbox, broadcast” emitir nuestra partida al servicio Twitch.tv, mientras que el botón para compartir que Sony ha integrado en el Dualshock 4 (otra de las novedades de ese periférico) hace lo mismo, pero además permite compartir esas partidas en Ustream.
Aunque a priori parece que la PS4 ha reforzado especialmente esas opciones sociales, Microsoft prepara su herramienta Upload Studio para editar, personalizar y compartir los vídeos que grabemos de las partidas jugadas en nuestra consola.
La Xbox One guarda en un búfer los últimos cinco minutos de cada partida, y podremos editar esos vídeos con esa herramienta además de añadir comentarios narrando esas partidas con un vídeo de nosotros mismos grabado con KinectLa PS4 guarda hasta 15 minutos de juego, pero no ofrecerá inicialmente ninguna herramienta de edición para añadir esos “efectos especiales” que sí posibilitará la Xbox One.
En ambos casos la idea es interesantesobre todo para videotutoriales que permitan a jugadores experimentados enseñar a otros cómo superar ciertas fases de un juego o, por ejemplo, cómo lograr ese regate imposible en FIFA.
En el caso de Microsoft hay una singular ambición en este apartado con su propuesta “cloud computing” que teóricamente aportará la potencia de una red distribuida de computación para ayudar en distintos escenarios, pero veremos si sus efectos se dejan sentir o no en esta consola, algo que en detallados análisis como este parece posible pero no seguro.

El catálogo de salida como carta de presentación

Los catálogos de juegos iniciales con los que se lanzan las consolas son los responsables principales de ese éxito inicial de dichos desarrollos. Se ha comprobado en pasadas generaciones, y esa realidad también se hará patente en el lanzamiento de la Xbox One y la PS4.
FIFA 14
Tanto Microsoft como Sony lo saben muy bien, y han tratado de ofrecer unos catálogos de lanzamiento lo más espectaculares posible.
En el caso de la PS4 hay retrasos importantes como el de DriveClub, y estos primeros días de disponibilidad de la consola en Estados Unidos han dejado claro que ese catálogo inicial de la consola de Sony —Killzone: Shadow Fall y Knack son protagonistas— es más bien “normalito”, sin ningún juego que parezca motivar la compra de la consola… de momento.
En el caso de la Xbox One resuenan especialmente tanto Forza Motorsport 5 como Ryse: Son of Rome o Killer Instinct (con modo free-to-play incluido), pero de nuevo tendremos que esperar a analizar estos juegos y comprobar su calidad y jugabilidad para saber si ese catálogo inicial es realmente llamativo.

Pensando en los desarrolladores (independientes o no)

Uno de los apartados en los que menos pensamos los usuarios es el de la facilidad o complejidad que estas consolas plantean a los creadores de los videojuegos. En este caso todo son buenas noticias, porque la adopción de la arquitectura x86/AMD64 tradicional en el mundo de la informática facilitará la vida, y mucho, a los desarrolladores.
Indies
Mucho se ha hablado de la complejidad de la PS3 y de la dificultad que tenían los desarrolladores para sacar partido a sus procesadores Cell —que cuando aparecieron en escena crearon inmensas expectativas—, y los PowerPC de la Xbox 360 tampoco hacían la vida especialmente sencilla a estos programadores.
Sin embargo, todo eso cambia con la nueva concepción hardware de estas consolas, mucho más parecidas a los PCs actuales (en casi todo) y que por tanto ofrecerán nuevas e interesantes posibilidades tanto a las grandes desarrolladoras y distribuidoras como al mundo de los programadores independientes.
En este último aspecto es especialmente reseñable el interés mostrado tanto por Sony y Microsoft. Ambas empresas han lanzado programas para desarrolladores indies que permitirán la autopublicación de títulos y la existencia de un catálogo en el que a priori la relevancia de desarrollos independientes será muy, muy relevante. Las esperanzas en este punto son especialmente altas, y puede que en este sentido sí veamos una revolución del desarrollo en ambas consolas.

Conclusiones: mucho por demostrar

Es aún muy pronto para poder declarar una ganadora en un terreno tan competido como el de las consolas. Ambas propuestas presentan credenciales interesantes, y probablemente hasta dentro de unos meses, con catálogos y prestaciones más asentadas y demostradas, no podamos hacer un juicio de valor más claro sobre cada una de estas apuestas.
Xbox One vs PS4
Dejando a un lado las comparaciones técnicas —que como os adelantábamos, tendrán su propio artículo detallado en Xataka— lo que parece claro es que esa ambición de Microsoft por el apartado de entretenimiento podría darle un valor añadido importante en el futuro, y resulta singular que Sony no haya hecho demasiado hincapié en ese apartado. Puede que su apuesta casi total por los juegos sea un acierto, desde luego, pero serán los fans los que decidanfinalmente cuál de ellas se lleva el gato al agua.
Así pues, ya sabéis: la Xbox One llegará el 22 de noviembre a nuestro país, mientras que la PS4 lo hará una semana después, el próximo 29 de noviembre. Hay diversas opciones y packs para comprar estas consolas, así que la decisión es vuestra.