Andrew Tanenbaum

La fusión de las computadoras y las comunicaciones ha tenido una influencia profunda en la manera en que están organizados los sistemas computacionales. Actualmente, el concepto de "centro de cómputo" como un espacio amplio con una computadora grande a la que los usuarios llevaban su trabajo a procesar es totalmente obsoleto. El modelo antiguo de una sola computadora que realiza todas las tareas computacionales de una empresa ha sido reemplazado por otro en el que un gran número de computadoras separadas pero interconectadas hacen el trabajo. Estos sistemas se denominan redes de computadoras.

Andrew Tanenbaum

Las redes de computadoras, como la imprenta hace 500 años, permiten que el ciudadano común distribuya sus puntos de vista en diversos modos y a audiencias diferentes, lo cual antes no era posible. Este nuevo fondo de libertad ofrece consigo muchos temas sociales, políticos y morales sin resolver.

Chris Pirillo

Las contraseñas son como la ropa interior. No puedes dejar que nadie la vea, debes cambiarla regularmente y no debes compartirla con extraños

Dan Hurvitz

Ley de Alzheimer de la programación: si lees un código que escribiste hace más de dos semanas es como si lo vieras por primera vez

Mi nombre es Linus, y yo soy tu dios

Linus Torvalds - "padre" de Linux, Dios amateur


Algunas publicaciones no son obras directas de FC5Scrim, se debe considerar las publicaciones de FC5Scrim como una recopilación de material que representa el pensamiento de FC5Scrim si no se menciona lo contrario, si alguna de nuestras publicaciones afecta directamente el buen nombre de algún autor solo con notificarnos retiraremos la publicación.

sábado, 31 de mayo de 2014

"Agrotón" la búsqueda de la tecnología para el campo colombiano.



Foto: MinTic

Los ministerios de Agricultura y de las TIC se unieron para la creación de la llamada Agrotón; un evento que tiene como fin impulsar avances del campo colombiano, con la ayuda de expertos en temas tecnológicos y de desarrollo de aplicaciones.

Según explicó el MinTIC, durante 48 horas jóvenes de las zonas más apartadas del país podrán asumir y tener asesoría, sobre el reto de crear aplicaciones útiles para el desarrollo del campo colombiano en temas como insumos, mercado de tierras, educación financiera, mejoramiento de calidad de servicios, entre otros.

Hasta este primero de junio se llevará a cabo en Corabastos, en Bogotá, esta maratón de innovación, desarrollo de aplicaciones móviles y web en la que se podrán resolver problemáticas del sector agrícola.

“La Agrotón busca unir las necesidades de líderes campesinos, representantes de la cadena de productiva del agro colombiano, empresarios del sector de alimentos y agropecuario y entidades públicas, con la creatividad de los desarrolladores, en una maratón en la que se crearán aplicaciones móviles y web fáciles de usar”, indicó el Ministerio.

En este evento, se propondrán 10 retos a los participantes y éstos, organizados en grupos, trabajarán para desarrollar aplicaciones que den solución a las problemáticas planteadas. Al final de la jornada se premiarán a las 30 mejores aplicaciones móviles y web.

Siete de los grupos ganadores recibirán premios equivalentes a 17,5 millones de pesos que se otorgarán al culminar el desarrollo de la aplicación propuesta durante la Agrotón. Los tres restantes recibirán mentorías para desarrollar modelos de negocio. Además, se entregarán otros estímulos económicos, bonos y dispositivos electrónicos, entre otros.

Artesanos de Boyacá utilizan las TIC para potenciar su negocio

  


 
La tecnología está muy presente en todos los ámbitos de nuestra vida, donde ocupa un puesto cada día más importante. Como no podría ser de otra manera, en el mundo de la artesanía también. Podríamos definir un producto artesanal como aquel que, fundamentalmente, se ha realizado con las manos de su creador, el artesano. La idiosincrasia propia del negocio y el trabajo manual parecen apartarnos de un proceso mecanizado y tecnológico, quizá porque nos centremos en la fase productiva, pero no podemos olvidar que las TIC son una gran ayuda a la hora de gestionar, diseñar y vender los productos del taller. El artesano tiene a su alcance, como cualquier otro empresario, una serie de aplicaciones que le pueden ayudar en su quehacer diario y en la gestión de su negocio, beneficiándose de las características positivas de su uso general:  Ahorro de tiempo por una mejor gestión de la información.  Avance en los trámites internos del negocio.  Aumento de la capacidad de comunicación con terceros. La naturaleza manual del trabajo del artesano contribuye a dar una originalidad propia al producto final que es susceptible de ser aprovechado para su promoción y venta. El grado de penetración de elementos de las Tecnologías de la Información y la Comunicación (TIC) en el sector artesanal como páginas Web, correo electrónico etc. es más lenta que en otros sectores productivos, probablemente por el carácter propio del artesano. Además se trata de un gremio muy atomizado, constituido en gran medida por autónomos y micropymes que normalmente no cuentan con una ayuda técnica especializada que les pueda asesorar tecnológicamente. La venta por Internet y la muestra de sus productos en canales de promoción son una de las grandes potencialidades que brindan las Nuevas Tecnologías (NNTT) a los artesanos.

utiliza WhatsApp con 2 números en el mismo celular



Te mostramos cómo utilizar WhatsApp con 2 números en un mismo dispositivo Android.


Cómo usar WhatsApp con 2 números | © Twin Design / Shutterstock.com

Muchas veces por diversos motivos tenemos 2 números telefónicos y en cada uno la aplicación de WhatsApp cosa que puede ser un tanto incómoda, sin embargo, gracias a OGWhatsApp, una versión modificada de WhatsApp para Android, con la que podemos utilizar WhatsApp con 2 números en el mismo celular, así, desde un mismo dispositivo pueden contestar ambos números y sin necesidad de hacer Root. A continuación te dejo los pasos a seguir para poder utilizar WhatsApp con 2 números en el mismo teléfono.
Recomendado: Cómo saber quien te bloqueo en WhatsApp
Usar WhatsApp con 2 números en el mismo celular

Para utilizar WhatsApp con 2 números en el mismo equipo, realiza lo siguiente:
Haz un backup de tus mensajes desde WhatsApp
Renombra la carpeta /sdcard/WhatsApp de tu terminal a /sdcard/OGWhatsApp
Desinstala WhatsApp
Descarga e Instala OGWhatsApp desde la web del desarrollador.
Instala WhatsApp desde Google Play
Inicia desde OGWhatsApp y verifica el número original
Inicia WhatsApp y verifica el nuevo número








Siguiendo esos pasos ya podrás leer y mandar mensajes de WhatsApp con dos números diferentes en el mismo equipo. Ideal para aquellos que tienen dispositivos con Doble SIM o para aquellos que cuentan con dos equipos y quieren manejar su WhatsApp en uno solo.

La distribución Linux para el navegante anónimo



Tails-Thor 
La poderosa comunidad del open source, y la enorme cantidad de distribuciones de Linux que nacen todos los días, ahora contamos con sistemas operativos completamente dedicados a salvaguardar nuestra privacidad, Tails, una combinación letal entre Debian y Tor para ofrecernos una distro diseñada para el anonimato.

Tails es una distribución de Linux basada en Debian, diseñada para ejecutarse como un sistema en vivo, es decir, sin instalación; con el objetivo de preservar la privacidad y el anonimato de quien la use. Tails, cuyas siglas significan "The Amnesic Incognito Live System", señalan que se trata de un sistema que sufre de perdida de la memoria a largo plazo y que esconde su verdadera identidad.

Tails combina la robustez de el software libre usando como base Debian, y el poder de la red Tor para usar el Internet de manera anónima y saltarse cualquier tipo de censura. Al ser una distribución Live puede llevarse en cualquier medio de almacenamiento extraible como una memoria USB, tarjeta SD o un DVD; y ejecutarse en cualquier ordenador al cual se conecte el dispositivo.

Tails

La versión actual de Tails es la 1.0, puedes descargar el archivo de imagen ISO desde la pagina oficial, via torrente o descarga directa. Tails también recomienda verificar la integridad del archivo descargado utilizando la llave OpenPGP que ellos mismos proporcionan, junto a instrucciones detalladas de como hacerlo desde varias distribuciones de Linux, Windows o Mac.

Para instalar Tails en un disco solo debes quemar la imagen a un DVD, es la manera más segura ya que el sistema no puede ser alterado por virus o hackers, ya que se crea como un disco de solo lectura, pero no es la alternativa más comoda.

Tambien puedes instalar Tails en un pendrive o tarjeta SD lleva tu sistema operativo a cualquier lugar

   Te permite actualizar tu dispositivo con nuevas versiones del sistema
   Archivar datos y configuraciones en una sección cifrada dentro del mismo
   Puedes llevar facilmente en tu bolsillo.

Para crear el disco USB desde Windows puedes utilizar Yumi, o cualquier tipo de herramientas que permitan montar imágenes ISO. En Linux puedes usar Unetbootin por ejemplo.

Tails incluye un set de aplicaciones preinstaladas para todo uso, empezando por Firefox como navegador preconfigurado con el boton de Tor y parches del TorBrowser; Pidgin preconfigurado con OTR (Off-the-record-messaging), Claws Mail, Open Office, Gimp, Inkscape, Audacity, PiTIVi, Brasero, y muchas herramientas de cifrado y privacidad. También cuenta con soporte multilenguaje al bootear podemos elegir idioma.
 Tails-Thor


Graba sonido y podcasts en Linux, Mac y Windows con Audacity

Audacity graba y edita tus fuentes de audio y es totalmente gratuito



Audacity es -una de las muchas- joyas de la corona del mundo del software libre. Una herramienta que satisface todas tus necesidades a la hora de grabar y editar audio con muchas funciones, fácil de utilizar -sin perder de vista que hablamos de un software especializado en forma y fondo y, por tanto, puede resultar difícil para los ajenos al mundo del audio-, rápido en rendimiento, asequible en requisitos... y, por último pero no menos importante, se trata de un proyecto gratuito y de código abierto.


Es difícil echar en falta en Audacity alguna función si no somos usuarios

Puedes empezar a grabar tu podcast utilizando un programa como Audacity

Otro apartado en el que Audacity es todo un ganador es el de los efectos de sonido. Cuenta con decenas de ellos, desde los más habituales a los más curiosos, y entre todos pueden tenerte mucho tiempo entretenido manipulando sonidos y consiguiendo resultados sorprendentes. Admite efectos en formato VST en las versiones Windows y Mac OS y también cuenta con opciones para reparar grabaciones dañadas o mitigar problemas de audición.

Gracias a su popularidad y a la siempre fuerte y activa comunidad de linuxeros, Audacity cuenta con mucho soporte. Su última versión, la 2.0.5, está fechada en octubre de 2013 y está traducida al castellano. Entre los recursos a disposición de los usuarios (wiki, manuales, tutoriales...) hay un foro también en castellano donde compartir trucos, preguntas y problemas.

RedFoX GNU: emplear Linux para gestionar tu PYME



Desde Neux GNU Software nos traen un proyecto en el que están implicados desarrolladores de España y México principalmente. Se trata de RedFoX, un software de gestión empresarial pensado especialmente para Linux y bajo licencia GNU GPL.
El software será portado para Windows y Mac OS X en un futuro, pero el principal interés de este grupo es acercar Linux a todas esas empresas que usan otros sistemas operativos por escasez de este tipo de software para la plataforma del pingüino.
RedFoX está desarrollado en C++/Qt y ha representado un esfuerzo de tres años de desarrollo para crear un programa de calidad, fácil de instalar y con una interfaz sencilla e intuitiva. Desde la web de sus creadores se puedrá descargar un .sh para instalar en cualquier distro Linux.
Al ser un software de código abierto, las fuentes está disponible en GitHub y cualquiera puede revisarlo, modificarlo, etc., como bien ya sabemos en este blog. Decir también que RedFoX se encuentra en fase Alfa de su desarrollo, pero los desarrolladores aseguran que no defraudará. Es rápido, completo, atractivo, funcional y muy fácil de utilizar.

Disponible Linux Mint 17 hasta 2019



Clement Lefebvre acaba de dar el pistoletazo de salida a la versión final de Linux Mint 17 en sabores Cinnamon Y MATE.


Linux Mint 17, con nombre en clave ‘Quiana’, se basa en Ubuntu 14.04 LTS, por lo que gozará de soporte extendido hasta 2019. Sus novedades de base, pues, son las mismas de Trusty Tahr, comenzando por el kernel Linux 3.13.

Por su parte, Linux Mint aporta sus propias novedades en la forma de Cinnamon 2.2 y MATE 1.8, cuyos principales cambios os comentamos en su momento. En cualquier caso, os recomendamos leer los anuncios de lanzamiento oficiales, tanto de Linux Mint 17 Cinnamon como de Linux Mint 17 MATE, para enteraros bien de todos los detalles.




Así que solo nos quedaría dejaros el enlace a la página oficial de descargas.

ya tenéis entretenimiento para el fin de semana. Nosotros haremos lo propio y os contaremos la experiencia.

jueves, 29 de mayo de 2014

Diseñar juegos 3d en linux ubuntu ya es posible con Leadwerks

Una plataforma de desarrollo de videojuegos en tres dimensiones acaba de anunciar un acuerdo con Canonical, la compañía que impulsa el desarrollo de Ubuntu, para convertir esta versión de Linux en el centro de su negocio.
Leadwerks, que ya está disponible en el centro de software de Ubuntu, se aprovecha así de la creciente popularidad de esta distribución (versión) de Linux, que según Canonical utilizan ya más de 25 millones de usuarios.
Según sus creadores, al llevar Leadwerks hasta Ubuntu están facilitando no sólo el desarrollo de títulos completos, sino también el de componentes aislados para juegos.
combat-helo.jpg

"Leadwerks para Linux ha sido diseñado para ofrecer a los usuarios la posibilidad de desarrollar juegos" en esta plataforma de código abierto, señala el CEO de la compañía, Josh Klint, que explica que al ser líder de su segmento, Ubuntu le ofrece las mayores posibilidades de expansión.

¿El año de Linux?

"Nuestro objetivo primario para los próximos 12 meses es desarrollar una comunidad de desarrolladores de juegos basados en Ubuntu", señala Klint en declaraciones citadas por The Inquirer.
Puede que este tampoco sea "el año de Linux" (su advenimiento se pronostica desde hace más de una década), pero sin duda será clave para convertir al sistema operativo libre y gratuito en una plataforma para jugar con el PC.

Después de que el marketplace de juegos Steam lanzase una versión para Linux, en la que sólo están disponibles una fracción de los títulos para Windows y OS, la compañía está desarrollando una distribución de Linux específica.
La ha bautizado como Steam OS, y es algo así como darle la vuelta al calcetín: en vez de ejecutar Steam dentro de Linux, se trata de crear un sistema operativo completo, diseñado por y para jugones, basado en Linux.

Vídeo: Combat Helo, uno de los juegos creados con Leadwerks


viernes, 16 de mayo de 2014

Descubierta (y corregida) una vulnerabilidad grave en el kernel Linux


No es un buen año para los administradores de sistemas. A los fallos en librerías SSL como Heartbleed se une hoy un fallo grave en el núcleo Linux que permitiría a un atacante hacerse con el control completo de un ordenador con sólo ejecutar un programa.

El fallo se habría introducido en 2009 en la versión 2.6.31-rc3 del kernel: cinco años en los que la vulnerabilidad ha pasado desapercibida (o al menos, eso esperamos). Sólo ha sido descubierta por un desarrollador que estaba haciendo pruebas y que la ha reportado de inmediato para que sea corregida. El parche para el núcleo Linux ya está disponible y la mayoría de distribuciones ya han publicado la actualización en sus repositorios.

La vulnerabilidad está en el sistema de terminales virtuales (PTY), que permite simular terminales para interactuar con ciertos procesos. Por ejemplo, es lo que usa vuestro programa de consola (Konsole, GNOME Terminal, iTerm...) para poder interactuar con la terminal del sistema (suele ser bash si no lo habéis cambiado).

Cuando la PTY se configura con dos opciones concretas (LECHO, !OPOST), el sistema espera que sólo haya un proceso escribiendo al mismo tiempo. Lo que hace el exploit es precisamente lo contrario: lanzar dos procesos (técnicamente, dos hilos) que escriben al mismo tiempo en la misma terminal. Por asi decirlo, es como si conectáis dos teclados al ordenador y escribís en los dos al mismo tiempo.

Esto es lo que se llama una condición de carrera en informática: hay dos tareas ejecutándose a la vez, y dependiendo del orden en el que ejecuten cada instrucción se puede producir un fallo. En este caso, si la ejecución es como la que veis en la siguiente tabla, el atacante consigue que el núcleo escriba en un espacio de memoria que no estaba reservado.

sábado, 10 de mayo de 2014

CoreOS utiliza Docker en Linux


CoreOS uses Docker to put Linux on a diet
CoreOS acaba de entrar en su primera versión beta adecuado, y el concepto es simple: es una distribución de Linux que utiliza Docker para manejar cómo se agregan aplicaciones y servicios en el sistema y gestionan .

CoreOS utiliza contenedores para agrupar aplicaciones - por ejemplo, un servidor de base de datos con toda su middleware, o una aplicación con sus tiempos de ejecución. Teóricamente, esto elimina la maraña de dependencias y otros dolores de cabeza que por lo general están asociados con la gestión de paquetes en Linux. De hecho, CoreOS deliberadamente no incluye un gestor de paquetes; su filosofía es que cualquier software en CoreOS se debe ejecutar a través de un contenedor, y sus creadores afirman que este enfoque adelgazado también permite una instalación CoreOS utilizaba mucha menos memoria que una distribución típica de Linux.

CoreOS también es de containers de manejar como los servicios y las aplicaciones desplegadas en un clúster de ejecución, por lo que todas las máquinas del clúster pueden compartir un único sistema de inicio. Las aplicaciones pueden ser distribuidos a través de las máquinas para asegurarse de que, por ejemplo, los envases originales y sus imágenes de copia de seguridad se almacenan en ubicaciones físicas separadas. Las aplicaciones desplegadas también puede ser auto-configuración a modo de sistema de ETCD CoreOS; aplicaciones pueden almacenar sus ajustes de forma distribuida y recuperarse con gracia cuando sus sistemas concomitantes se desconectan. ETCD también controla si el contenido de los contenedores indicados son mutables o inmutables.

El equipo CoreOS afirma que está hecho 150 lanzamientos de producto durante su período de prueba alfa de nueve meses, y una de las últimas características resbaló antes de la congelación función beta es cerrajero, una manera de controlar cómo se reinicia rodantes tienen lugar en grupos CoreOS por lo que sólo un cierto número de máquinas (o sólo uno a la vez, si esa es su preferencia) están fuera de línea.

Estos ingredientes adicionales insinúan cómo Docker por sí mismo, en su estado actual, no se ocupa de algunos de los problemas que vienen con los sistemas Linux de gestión, tales como la orquestación o reemplazo completísima de soluciones y la configuración de administración de la orquestación como Chef, Marioneta o sal. Estas cosas se pueden hacer de manera concertada con Docker a través de otras soluciones, sin embargo.

Cómo Docker evoluciona más allá de su eventual liberación 1.0 influirá en la cultura de las herramientas y tecnologías de desarrollo que ya han surgido alrededor de ella. No es probable que Docker se revisará de manera tal que esas cosas se rompen. Tiene más sentido que se desarrollaría de manera complementaria.

Algunas de las características anunciadas para la corriente atisbo de Docker 0,11 liberación en, por ejemplo, el soporte de SELinux. Sin embargo, algunos otros teóricos apuntan a las formas en que proyectos como CoreOS podría ampliarse aún más. Por ejemplo, Docker podría, con el tiempo, obligado no sólo a los contenedores de Linux, sino también para los hipervisores KVM o Xen como.

Finalmente, si bien el objetivo inicial de CoreOS es la nube y los proveedores de SaaS, no es difícil ver cómo las tecnologías que se están desarrollando dentro de ella tendrían utilidad real en las empresas en general, así como Docker tiene.

jueves, 8 de mayo de 2014

El principio fue el mainframe


IBM System 370 145

Los usamos a diario pero no somos conscientes de ellos. Ayudan a que la ciencia evolucione y mejor, a que los nuevos descubrimientos sean posibles. Sin ellos, el mundo actual sería muy diferente. Los Mainframe son una categoría de ordenadores desconocida para muchos, pero esencial en la informática moderna.
Hoy ahondaremos en el mundo de los mainframe, aprovechando el 50 aniversario de su creación por IBM. Equipos que, como todo el mundo de la tecnología, han evolucionado de forma notabilísima, pasando de aquellas vetustas válvulas de vacío a los nuevos transistores, de tener armarios con cuadros de control a poder ser gestionados desde cualquier parte del mundo.

Remontándonos a la prehistoria de la informática

Los ordenadores de principios del siglo XX eran calculadoras, utilizadas para acelerar las operaciones de los profesionalesAntes de entrar en materia con los mainframe es necesario poner algo de contexto a este tema. Los ordenadores de principios del siglo XX eran meras calculadores que los investigadores de la época utilizaban para acelerar sus operaciones. Máquinas con una electrónica básica, muy alejada de la que conocemos hoy en día, pero que funcionaron y ayudaron a los estudios de entonces. Podemos decir que sirvieron para que las cuentas matemáticas pasasen del papel al ordenador, acelerándolas y, en muchos casos, asegurando los resultados ante posibles errores humanos.
IBM 601 IBM 601, calculadora basada en tarjetas microperforadas (1931, vía Wikipedia)
Evidentemente las aspiraciones humanas fueron cada vez mayores. Si tenemos un ordenador capaz de ejecutar 1.000 operaciones por segundo, el siguiente paso a realizar es inmediato: buscar uno le supere en rendimiento.
En los años 30 IBM ya fabricaba ordenadores destinados a grandes entidades, generalmente administración pública (gobiernos, ejércitos o universidades), que reservaban varias salas en sus edificios para estos computadores. Los métodos de entrada y salida eran tarjetas microperforadas, muy alejadas de los actuales teclado, ratón o pantalla. La información se cifraba y se grababa en las tarjetas a través de pequeños agujeros físicos, que eran los que el computador detectaba y era capaz de leer a través de un código. Una vez realizadas las determinadas operaciones, el propio ordenador volvía a perforar otra tarjeta donde mostraba los resultados.
IBM 801 Bank Proof IBM 801 Bank Proof, máquina para llevar un registro de cheques bancarios (IBM, 1934)
Estos equipos eran relativamente pequeños, de unos pocos metros cuadrados de superficie. Sobre estas líneas tenéis el IBM 801 Bank Proof, un sistema con cuya creación IBM buscaba automatizar ciertos trabajos relacionados con la banca: comprobar cheques bancarios, aprobarlos y llevar un registro económico del conjunto. Una curiosa máquina que precisamente llegó pocos años después del crack del 29, concretamente en el año 1934, y que fue uno de los culpables de que IBM tuviera un ritmo de fabricación de entre 5 a 10 millones de tarjetas microperforadas al día.
Pero no dejaban de ser juguetitos para lo que iba a venir un tiempo más tarde. El primer uso que IBM le da al término 'mainframe' es en 1944, cuando la compañía norteamericana y la conocida Harvard University desarrollaron el ASCC, Automatic Sequence Controlled Calculator, también denominado The Harvard Mark I, y que empezó a gestarse en 1939.
Harvard Mark I

Harvard Mark I

Uno de los primeros 'grandes' equipos de IBM, estuvo 15 años operando en Harvard admitiendo números de hasta 23 cifras decimales.
El Mark I era un equipo de grandes dimensiones que ocupaba una enorme sala dentro de Harvard, y puede definirse como una enorme calculadora síncrona que podía trabajar en paralelo, utilizando algoritmos de cálculo que podían ejecutar las cuatro operaciones aritméticas básicas.
El Harvard Mark I, o ASCC, lanzado en 1944, es considerado el primer mainframe del mercado
Según IBM, Mark I operaba con números de hasta 23 cifras decimales gracias al uso de los 60 registros físicos para constantes y 72 contadores de resultados temporales, que físicamente fueron construidos por 765.000 componentes y unos 800 kilómetros de cable. Y sí, por supuesto el Mark I recibía como entrada tarjetas microperforadas, aunque también se podía añadir información a través de papel o interruptores mecánicos; por su parte, la salida se realizaba también con tarjetas microperforadas o automatizada, directamente a papel, a través de máquinas de escribir mecánicas.
El Mark I inició su trabajo el 7 de agosto de 1944, tras seis meses de montaje en las instalaciones de Harvard y varios retrasos motivados por la Segunda Guerra Mundial, y estuvo en funcionamiento durante quince años.

Los años 50

El Mark I es considerado el primer mainframe de la historia, y tras él vinieron muchos otros más. Mientras Frank Sinatra y Elvis Presley empezaban a sonar en las radios norteamericanas, los ingenieros de IBM continuaron con la idea del Mark I y se plantearon el desafío de iniciar su evolución y mejorarlo.
Fue entonces cuando nació el SSEC, Selective Sequence Electronic Calculator, un sistema con partes mecánicas (válvulas de vacío) y electrónicas (relés) cuyo diseño se inició justo tras el Mark I, poniéndose en funcionamiento en enero de 1948. Su misión no distaba mucho de la que se realizaba con el Mark I, siendo también una gran calculadora cuyo primer uso fue el cálculo de las posiciones de la luna respecto de los planetas del Sistema Solar. Esta tarea la ejecutó durante los primeros seis meses, y tras ello empezó a ser alquilada a diferentes compañías para múltiples proyectos.
Harvard Mark I

IBM SSEC

Nótese las dimensiones de los equipos en los laterales, y los paneles de control en el centro de la sala. Podéis encontrar la historia de ésta y otras imágenes en la web de la Columbia University.
Que el Mark I naciera en época de guerra pudo ser una coincidencia, si bien es cierto que el mundo bélico siempre ha estado muy ligado a la evolución de la tecnología. Muchos proyectos son grandes secretos y, lamentablemente, no nos enteraremos nunca de ellos, pero hay otros que sí se han confirmado.
Por ejemplo en plena Guerra de Corea (1950-1953), IBM presentó el IBM 701 en el año 1952, un equipo cuyo desarrollo se consensuó con el Gobierno estadounidense con la finalidad de ser usado para el diseño de naves aeroespaciales, de munición y también para el desarrollo nuclear.
IBM 701

IBM 701

Uno de los IBM 701 del Lawrence Livermore National Laboratory, en 1954. Una vez más se repite la distribución de armarios y mesa de control central (imagen vía Flickr).
IBM 701 Instalación 'típica' de un IBM 701 (imagen vía trailing-edge)
Además, IBM 701 supone un antes y un después en la historia al ser considerado como el primer sistema de procesamiento de información digital. Mientras en anteriores computadores era el propio usuario el que junto a la información añadía las operaciones a realizar, en el 701 los programas eran almacenados en una memoria interna, como se hace en la informática moderna. También se le considera una de las piezas clave para el abandono de las tarjetas microperforadas, además de la semilla que da inicio a una nueva era de la informática moderna.
IBM 701 inicia una nueva era, siendo el primer sistema de procesamiento de información digital. Se presentó en 1952.
Según la información de la compañía, el 701 es 25 veces más rápido que el SSEC a la vez que ocupa una cuarta parte de su espacio. Sólo se vendieron 19 unidades, disponibles entre los años 1952 y 1955, pertenecientes a los siguientes clientes:
Machine number Shipped to Date Note
1 IBM World Headquarters, New York, N.Y. Dec. 20, 1952
2 University of California., Los Alamos, N.M. Mar. 23, 1953 Used for hydrodynamics calculations.
3 Lockheed Aircraft Company, Glendale, Cal. Apr. 24, 1953 Mathematics Analysis Department used the 701 for problems in aircraft design, such as aerodynamic performance and stability, thermal dynamics and structural and flight dynamics. Production data handled on 701s by Lockheed's Factory Data Processing Group included project base schedule preparation, parts scheduling, shop order writing, direct labor hour forecasting and parts activity ledgers.
4 National Security Agency, Washington, D.C. Apr. 28, 1953
5 Douglas Aircraft Company, Santa Monica, Cal. May 20, 1953 Arrived on May 23, 1953, aboard a DC-6A aircraft. The 701 was used to get the DC-7 into production months ahead of schedule. It solved engineering and scientific problems on all Douglas commercial aircraft, including the DC-6B, DC-7, DC-7C and the development of DC-8.
6 General Electric Company., Lockland, Ohio May 27, 1953
7 Convair, Fort Worth, Tex. Jul. 22, 1953
8 U.S. Navy, Inyokern, Cal. Aug. 27, 1953 Used to calculate rocket and missile performance and to simulate flight conditions of these devices at the U.S. Naval Ordnance Test Station China Lake.
9 United Aircraft, East Hartford, Conn. Sep. 18, 1953
10 North American Aviation, Santa Monica, Cal. Oct. 9, 1953 Handled engineering problems, from basic configuration selection through aerodynamic and structural design to the analysis of flight test data.
11 Rand Corporation., Santa Monica, Cal. Oct. 30, 1953 Used to solve wide variety of problems in economics, mathematics, aircraft, missiles, electronics, nuclear energy and social sciences. Later moved to West Los Angeles.
12 Boeing Corporation, Seattle, Wash. Nov. 20, 1953 Used to assist engineers and designers in solving problems in aerodynamics, stress and structural development, and flight testing of supersonic and jet aircraft and guided missiles.
13 University of California, Los Alamos, N.M. Dec. 19, 1953
14 Douglas Aircraft Company, El Segundo, Cal. Jan. 8, 1954 Solved engineering problems on U.S. Navy A3D Skywarrior, A4D Skyhawk and F4D Skyray programs, and USAF C-133 and RB-66 programs.
15 Naval Aviation Supply, Philadelphia, Pa. Feb. 19, 1954
16 University of California, Livermore, Cal. Apr. 9, 1954
17 General Motors Corporation, Detroit, Mich. Apr. 23, 1954
18 Lockheed Aircraft Company, Glendale, Cal. Jun. 30, 1954 Mathematics Analysis Department used the 701 for problems in aircraft design, such as aerodynamic performance and stability, thermal dynamics and structural and flight dynamics. Production data handled on 701s by Lockheed's Factory Data Processing Group included project base schedule preparation, parts scheduling, shop order writing, direct labor hour forecasting and parts activity ledgers.
19 U.S. Weather Bureau, Washington, D.C. Feb. 28, 1955 Produced from spare parts.

Llegan los transistores y los mainframe continúan creciendo

Desde los años 50, los mainframes han continuado evolucionando con ayuda de los ingenieros de diseño que han estado permanentemente buscando la forma con la que mejorarlos y adaptarlos a los nuevos retos e invenciones de la ciencia.
Parte de esas evoluciones buscaban mejorar la parte física y ciertos componentes con el objetivo de conseguir una mayor eficacia y minimizar su tasa de error físico. Esta línea de pensamiento hizo que en 1956 se desarrollase el primer disco duro magnético, un monstruo de varios kilogramos de peso que se alquilaba por unos 3.200 dólares mensuales, y que fue instalado por primera vez en el IBM RAMAC 305.
IBM 305 RAMAC Sí, ese cilindro que veis ahí es el primer disco duro del mercado (imagen vía ExtremeTech)
Primero los discos duros mecánicos, y luego los transistores: los mainframes cambiaron radicalmente en los años 60.
Pocos años más tarde se ejecutó una de las innovaciones más importantes en uso en la tecnología actual. Sabréis que el término 'bug' proviene de su definición en inglés, cuya traducción es 'bicho', 'insecto' o similares individuos de la naturaleza. Esto es debido a que en la maquinaria de aquellos viejos computadores se metían insectos que alteraban el correcto funcionamiento del sistema.
Evitar esos "bugs', o al menos que dejasen de existir tal y como se conocían en la época, fue uno de los grandes retos en la década de los 60 al dejar atrás la tecnología de válvulas de vacío, elemento indispensable para los computadores de la época. Es cuando llegan los transistores y empieza la 'era digital'.
El mainframe encargado de inaugurar este periodo fue el IBM 7000, una evolución sobre el 700 que cambió las válvulas de vacío por transistores, y que llegó al mercado en 1964.
La semilla estaba ya enterrada en el suelo y era cuestión de regalarla y darle algo de tiempo. Los IBM 7000 Series tuvieron un cierto éxito en el mercado, pero sobre todo fueron la base sobre la que más tarde, en 1964, se construyeron los IBM System/360, que cambiarían notablemente la forma con la que llegar a los clientes.
IBM System/360

IBM System/360

Llegan los 60 y llega el color, la personalización y las diferentes gamas de producto. ¿El resultado? Los S/360 se hicieron un hueco en muchas más empresas (imagen vía 360info).
En vez de existir pocos equipos fabricados casi de forma artesanal, los S/360 se diseñaron de forma que existiesen múltiples configuraciones para ajustarse a los presupuestos que pudiesen tener diferentes clientes, así como también a los requisitos de todos ellos e incluso al color, siendo posible personalizarlos para adaptarse a la imagen de las diferentes compañías.
The IBM System/360 wasn’t just a brilliant all-in-one computer mainframe; it was stylish too. It was available in five standard colors, although the ASB Bank data center in New Zealand took advantage of ordering it in a custom yellow.
Los mainframes empezaron a llegar a empresas de todo tipo, y no sólo a entidades de corte público con grandes presupuestos como hasta entonces. ¿Necesitas un armario? ¿Quizá dos? Los que necesites, o los que puedas pagar.
Pero el éxito de los System/360 no se basó únicamente en la posibilidad de escalarlos a lo que el cliente necesitase. IBM también los orientó para servir como máquinas multipropósito. Mientras anteriores generaciones estaban pensadas como supercalculadoras, a partir del S/360 los mainframes empezaron a ser máquinas que servían para mucho más que calcular números.

La transición junto a los PC y la llegada de Internet

Los ingenieros de IBM mantuvieron la idea de los System/360 con nuevas generaciones en los años sucesivos. En 1970 llegaron los System/370 para los que pensaron que sería buena idea que la gente que ya tuviese un S/360 pudiese seguir ejecutando su software en un nuevo S/370. Eran retrocompatibles, basados en los mismos principios pero evolucionados y adaptados a los tiempos más modernos. Como detalle curioso, el sistema operativo tanto de los S/360 como de los S/370 ya se basaba en una arquitectura con registros de 32 bits, que en el ámbito doméstico incluso continúan usándose en la actualidad.
IBM System/370

IBM System/370

El panel de control, al fondo, y la entrada de datos, a la derecha. Detrás del fotógrafo habría más máquinas (imagen vía Forbes).
También se dio una importante coincidencia que más tarde aprovecharon desde IBM. Los System/370 coincidieron con el nacimiento de los PC, equipos mucho más sencillos pero también más económicos. Como referencia, los S/370-158 y S/370-168, ambos en 1972, tenían un coste de 200.000 y 400.000 dólares (de la época) respectivamente, mientras que el Apple I de 1975 se introdujo por los famosos 666,66 dólares.
Los S/370 se mantuvieron en el mercado durante dos décadas
Los System/370 fueron una de las familias más longevas de la historia de la informática, manteniéndose en el mercado durante dos décadas. IBM, consciente de que tenían un buen producto, se centró en mejorar sucesivamente tanto el hardware (nuevos procesadores, adaptación a nuevas interfaces) como en el software (sistemas operativos específicamente diseñados por IBM, introducción de los primeros Linux hechos 'a medida'). También empezaron a surgir los clones de equipos IBM, definidos como ordenadores diseñados y construidos por otros fabricantes (Hitachi, Fujitsu, Siemens o Mitsubishi eran quizá los más conocidos) pero compatibles con el mismo software que proporcionaba IBM.
Estos 'clónicos' se mantuvieron en el mercado durante los años 80, y empezaron a expandirse por el entorno doméstico (¿quién no recuerda los 80286 fabricados por AMD?), permaneciendo durante la siguiente generación.
Con los vaqueros y el refresco de cola vendiéndose por todos lados, en la década de los 90 IBM estrenó los System/390. Misma estructura de nombre que por supuesto trajo algunas novedades (pasaron a utilizar transistores bipolares en vez de CMOS, por ejemplo), pero que mantuvieron la esencia tanto de los S/370 como de los S/360 previos: seguían siendo retrocompatibles con el software (sí, en el 1999 se podía ejecutar en un S/390 un programa desarrollado para un S/360 de 1964 sin necesidad de adaptar el código) y utilizaban la misma arquitectura CISC de 32 bits. Igualmente también existieron múltiples familias, configuraciones y gamas, una constante que se mantiene hasta nuestros días.
IBM System/390 Un IBM S/390, ya "sólo armario" (imagen vía Corestone)
Una diferencia significativa es que, mientras los S/360 y S/370 eran máquinas con un panel de control propio, los S/390 empezaron a adoptar un formato diferente. Armarios de, generalmente, grandes dimensiones, en los que toda la comunicación se realizaba desde un cliente externo. Los PC, con su rápido crecimiento y la amenaza que suponían para los mainframes, motivaron este cambio que hizo que estos equipos necesitasen disponer de un buen canal de intercambio de información.

El cambio de siglo y el cambio de nombre

Aunque el equipo de diseño de IBM tuvo en mente siempre la evolución de muchos de los componentes, la base sobre la que se sustentaron las sucesivas generaciones fue la arquitectura CISC de 32 bits que, como ya hemos visto, se mantuvo entre los S/360, S/370 y S/390 durante un período de 40 años.
La llegada del nuevo siglo trajo importantes cambios para IBM. Los S/390 se vieron sucedidos por los System z, un nuevo nombre que también incluyó una nueva arquitectura, la z/Architecture.
IBM zEnterprise

IBM zEnterprise

Instalación de un zEnterprise y su expansión, BladeCenter Extension, en el año 2010. Lo que se dice hace cuatro veranos.
La z/Architecture, también desarrollada completamente por IBM, fue introducida en 2000. Dieron el salto a los 64 bits y, una vez más, mantuvieron la retrocompatibilidad con anteriores generaciones, incluyendo con los S/360 y suponiendo 40 años de software compatible.
¿Software de los 60 en un zEnterprise del siglo XX? Retrocompatibles durante más de 40 años
También introdujeron un nuevo límite en la memoria RAM (hasta 2 exabytes) fundamental en equipos profesionales de este calibre, y por supuesto el software, que ahora podía acceder a registros de mayor capacidad, repercutiendo en una mayor eficiencia en el procesamiento de la información. Algo que empezó a vislumbrarse en los S/390 terminó explotando en los System z: la paralelización se tornó en un pilar fundamental de esta nueva generación. Para ser competitivos y teniendo en cuenta las experiencias de los años anteriores, estos nuevos equipos se diseñaron de forma que admiten configuraciones que en algunos casos superan los 100 procesadores por armario, cada uno de ellos con cuatro, seis o más núcleos, y por encima del terabyte de memoria RAM.
Actualmente, además de los System z, IBM también distribuye mainframes con chips AMD Opteron (System x), Intel Xeon (System x, BladeCenter) o POWER (Power Sustems, Power Blade), su propia arquitectura heredada de los PowerPC de antaño. Existen decenas de diferentes modelos que a su vez son ampliamente personalizables y adaptables a los requisitos de cada cliente, tanto tecnológicos como económicos.

Los mainframe: siguen ahí aunque no los veas

Los mainframe existen y siguen a la orden del día, y de hecho los usamos continuamente. No los vemos, pero ahí están. Si te paras a pensar, estas líneas que estás leyendo seguramente estén guardadas en un servidor de alguna parte, y ese servidor consistirá en varios mainframes que son los que proporcionan la conexión 24/7 de ésta y muchas otras páginas web.
Los grandes servicios tienen sus propios centros de datos (Google, Apple), mientras que otras lo subcontratan. Por ejemplo Amazon es una de las mejor posicionadas en esto con sus Amazon Web Services, proporcionando servidores y sistemas de caché imprescindibles para la Web hoy en día.
Los mainframes han pasado de ser sistemas pertenecientes a entidades públicas (universidades, gobiernos, ejércitos) a ser la base hardware de Internet y las comunicaciones. El mundo de los smartphones ha hecho que estemos aún más conectados, no sólo en nuestras casas si no también en (casi) cualquier parte del mundo. A los smartphones hay que sumar las redes de sensores (cada vez más habituales en las ciudades), los vehículos (los coches cada vez incorporan más tecnología) o los electrodomésticos que empiezan a ser conectados (véase éste de Berg).
Aún queda mucho camino por recorrer, pero la tendencia es que prácticamente todo termine conectado a un servidor, en el que habrá un mainframe.
IBM zEnterprise

IBM zEnterprise zEC12

Otro zEnterprise, el zEC12 de 2012, junto a su BladeCenter Extension. Especial atención al diseño del equipo, auténtica belleza geek.
Igualmente, también hay que mencionar la importancia de los mainframes para el mundo de la ciencia. Equipos de este corte se utilizan para realizar simulaciones matemáticas complejísimas, predicciones meteorológicas o análisis de información que sin estos ordenadores superrápidos sería imposible afrontar.
Llevamos utilizándolos durante años, sin casi darnos cuenta.
Los mainframes llevan varios años siendo el 'centro' transparente de nuestras conexiones. No los vemos, pero están ahí. Sus funcionalidades no cambiarán en los próximos años, si bien sí empiezan a vislumbrarse algunas modificaciones importantes que pueden afectar a pilares de estos equipos. Uno de ellos es el consumo energético, un parámetro muy valorado en los últimos años debido a los incrementos en el coste de la energía en todo el mundo. Los clientes buscan equipos de consumo más ajustado que les permita reducir su factura de la luz, y por tanto los fabricantes se enfrentan ante el reto de bajar los requisitos energéticos de sus equipos a la vez que se mantiene un buen rendimiento. Es importante mencionar que el consumo eléctrico no depende sólo del equipo como tal, si no que por ejemplo también es esencial la refrigeración de la sala (los supercomputadores suelen instalarse en salas completamente refrigeradas para mejorar la disipación del calor), que suele suponer buena parte de la factura total.
El mundo de los servidores en general, y de los mainframes en particular, está en pleno proceso de cambio, con ARM como la próxima gran implementación.
Otro de los cambios más importantes que se están planteando en el mercado de los mainframe es evolucionar desde las clásicas arquitecturas POWER, x86 o la z que mencionábamos antes, hacia ARM, que tiene a su favor varios factores. Consume una fracción de la energía de sus competidoras, emite un calor que muchas veces puede disiparse pasivamente (sin ventiladores activos) y además son baratos. Evidentemente tienen la contrapartida de que su rendimiento también es mucho menor que el de las alternativas antes mencionadas, algo que está combatiéndose instalando múltiples chips ARM y ejecutándolos en simultáneamente, en paralelo.
HP Moonshot Los HP Moonshot, racks que pueden configurarse con procesadores ARM

Skype guarda conversaciones en el disco duro sin cifrado

Según programadores del Hackyard Security Group, el popular servicio de mensajería y videollamadas Skype guarda información de las cuentas de los usuarios en el disco duro sin cifrar.

Nombre completo, fecha de nacimiento, números de teléfono, país, ciudad e incluso conversaciones por chat se almacenan en diversas tablas en texto plano en el disco duro del sistema, dentro de una ubicación conocida y sin contraseña de acceso, según explicó Dragoş Andrei Gaftoneanu en un post.


“Hace unos días, estaba trabajando en la laptop de DrOptix y chateando en Skype. Era una conversación casual con algunos amigos, pero lo que pasó después me sorprendió. Después de que me fui, él pensó que seguramente me había olvidado de borrar algo, así que ejecutó el comando find and grep. El resultado fue interesante: encontró la carpeta que Skype había creado para mi cuenta en su directorio local, e investigando un poco más, encontró una base de datos. Navegándola, vio lo que yo había hablado con mis amigos en texto plano. Al día siguiente me lo dijo e hicimos una evaluación”.

Es importante remarcar que todas las llamadas, mensajes instantáneos y trasferencias de archivos y videos entre usuarios de Skype sí están cifradas, pero este no es el caso con la base de datos local de la plataforma, que se crea en el sistema luego de cada inicio de sesión.

Según la publicación, el directorio está ubicado en ~/.Skype y contiene distintas carpetas, algunas nombradas según la cuenta que hizo log in en la aplicación. Entre los archivos disponibles, uno denominado main.db muestra muchos datos personales del dueño de la cuenta, como contactos, mensajes, usuarios a los que llamó y chats.

Por ejemplo, la tabla denominada CallMembers muestra información en texto plano acerca de las llamadas realizadas.

“Podemos ver que hablé con Robert el lunes 10 de febrero a las 09:17:35 GMT. También podemos ver una tabla llamada Contacts que almacena la lista de contactos de la cuenta. Junto con el nombre completo y el nombre de usuario de Skype, tenemos otras columnas interesantes, como fecha de cumpleaños, país, ciudad y número de celular”, detalló Gaftoneanu.

De igual forma, la tabla Messages contiene cada mensaje que el usuario envía y recibe. La base de datos también contiene tablas sobre videollamadas.
Solución temporaria

Como Skype crea las mismas carpetas en cada login, se debería borrar el contenido de main.db cada vez que se cierra sesión, según recomendó el programador.

“Además, es una buena idea tener el hardware encriptado, ya que la base de datos puede ser sustraída de la computadora usando un LiveCD”, conluyó.

miércoles, 7 de mayo de 2014

SanDisk lanza la primera unidad de estado sólido de 4TB con tamaño de 2,5"



Además la compañía planea un modelo de 16TB para el año 2016.

Recientemente, SanDisk anunció el estreno de una nueva unidad de estado sólido (SSD) de la línea Optimus Max, llegando con la novedad de ser la primera que en un tamaño de 2,5 pulgadas (cabe en un notebook) puede almacenar hasta 4TB de información, lo que equivale a más de 4.000 GB en una sola pieza.

Con esto la compañía desafía al mercado de discos duros giratorios tradicionales, entregando un SSD para servidores que conserva una alta capacidad pero al mismo tiempo ofrece beneficios únicos de su tecnología de memorias rígidas: velocidad de escritura a 400MB/seg y un flujo de intercambio de datos por hasta 75.000IOPS, superando a los discos duros SAS de 10.000 y 15.000 revoluciones por minuto sin sacrificar espacio.

Es más: SanDisk planea lanzar muy pronto unidades del mismo tamaño compacto pero con capacidades de 6TB y 8TB, llegando incluso a los 16TB para el año 2016. Un par de años atrás esto parecía una locura, pero la empresa está segura de poder conseguirlo y el Optimus Max de 4TB parece ser un buen aviso de que será realidad.

martes, 6 de mayo de 2014

Sistemas de informacion empresarial video conferencia maestria



función de los SI representa:



Un área funcional principal dentro de la empresa, que es tan importante para el éxito empresarial como las funciones de contabilidad, finanzas, administración de operaciones, marketing, y administración de recursos humanos.

Una colaboración importante para le eficiencia operacional, la productividad y la moral del empleado, y el servicio y satisfacción del cliente.

Una fuente importante de información y respaldo importante para la toma de decisiones efectivas por parte de los gerentes.

Un ingrediente importante para el desarrollo de productos y servicios competitivos que den a las organizaciones una ventaja estratégica en el mercado global.

Una oportunidad profesional esencial, dinámica y retadora para millones de hombres y mujeres.

sábado, 3 de mayo de 2014

Linux apesta, video de Bryan Lunduke periodista especializado en tecnología.

Se trata de otro capítulo de la serie de conferencias que ha dado en los últimos años Bryan Lunduke, periodista especializado en tecnología en general y Linux en particular, ahora Social Media Marketing Manager en SUSE.

Linux apesta (vídeo y opinión)

No veo nada de malo en usar varios distribuciones, incluso windows esta creando nuevas distribuciones, es poder  de usar el que mas se ajusta a tus necesidades, también hay que ser consientes que el software libre tiene algunas  limitaciones como el flash player libre  y  DirectX , pero son proyectos que constantemente están siendo trabajados, se puede usar el flash player de adobe y funciona muy bien y es gratis,  el directX11 tampoco presenta dificultades.

aun el componente social no se toca el cual me parece es la esencia del software libre, juzguen ustedes mismos.

Lunduke responde algunas cuestiones surgidas tras Linux Sucks 2014 en su blog personal.

jueves, 1 de mayo de 2014

video analisis de sistemas : Organización y Procesos de Negocio

“Todo negocio hoy compite en dos mundos: un mundo físico de recursos que los gestores pueden ver y tocar y un mundo virtual hecho de información. Este último ha generado el mundo del comercio electrónico, un nuevo medio de creación de valor.”
Rayport y Sviokla, 1995



aunque en el diagrama falta los proveedores, Todo sistema de información existe para apoyar uno o más procesos de negocios dentro de las organizaciones. Conociendo esto, es frecuente que los sistemas de información sean clasificados según los procesos que apoyan. De esta manera surgen clasificaciones de estos con denominaciones tales como ERP, CRM, EHR, entre otras muchas.

Los sistemas de información son generalmente construidos siguiendo procesos de negocios estandarizados, proveyendo opciones de personalización, sin embargo, limitando la naturaleza del proceso a lo que es posible dentro de ciertas posibilidades.

Entonces, se le llama “sistema de información de proceso de negocio ”, a aquellas herramientas que apoyan un proceso de negocio establecido de antemano.



IBM abre Arquitectura Chip

 Los chips, según los expertos, son inusualmente rápido, potente y afinada para el manejo de grandes cantidades de datos.
"Queríamos dar a la gente una alternativa a Linux en Intel", dijo Tom Rosamilia, vicepresidente senior a cargo de los negocios de hardware de IBM, cargo que asumió en agosto pasado.
Two IBM engineers working on a stack of servers using the company's Power-based designs. Jack Plunkett / Feature Photo Service para IBMingenieros IBM trabaja en una pila de servidores que utilizan los diseños basados ​​en el poder de la empresa.
Las necesidades del negocio de chips de IBM . Así que la compañía ha abierto la tecnología de sus microprocesadores de energía, invitando a otros a modificar y fabricar diseños basados ​​en la alimentación  como mejor les parezca. Esta iniciativa de licencias  abierta se lleva a cabo bajo los auspicios de la Fundación OpenPower, que fue incorporada en diciembre.
La fundación cuenta con dos docenas de miembros, además de IBM, incluyendo Google, Samsung, Nvidia, Mellanox y Tyan. El miércoles, IBM y la fundación están anunciando los primeros frutos de esa colaboración - ordenadores servidores basadas en la nueva tecnología de chip Power8 de IBM. Los chips, según los expertos, son inusualmente rápido, potente y afinada para el manejo de grandes cantidades de datos.
IBM y Google son los actores estratégicos clave en la fundación. Los sistemas de energía de IBM tienen la mayor cuota del mercado de los equipos servidores que ejecutan el sistema operativo Unix. Pero el mercado de servidores Unix se está marchitando. Las ventas de sistemas Power de IBM cayeron un 31 por ciento el año pasado.
"Para la tecnología de energía para sobrevivir, IBM tiene que ver esto", dijo Charles King, analista principal de Pund-IT, una firma de investigación."Hay que encontrar nuevos mercados para la energía."
La nueva estrategia de mercado es convertirse en una atractiva casa de hardware para Linux, el sistema operativo de elección en centros de datos de Internet de la época. Linux normalmente se ejecuta en los chips estándar de la industria, producidos principalmente por Intel, sino también Advanced Micro Devices.
"Queríamos dar a la gente una alternativa a Linux en Intel", dijo Tom Rosamilia, vicepresidente senior a cargo de los negocios de hardware de IBM, cargo que asumió en agosto pasado.
La decisión de IBM de abrir su tecnología de chip, el Sr. Rosamilia dijo, toma una página del libro de jugadas de ARM, cuyo abierta licencias política ha contribuido a que sus procesadores de bajo consumo en un líder en los mercados de teléfonos inteligentes y tabletas.
Gordon MacKean, que lidera los equipos de hardware de Google, es el presidente de la Fundación OpenPower. En una entrevista, el Sr. MacKean dijo abriendo la tecnología de energía permitió a muchos grupos para afinar que, potencialmente conduciendo por el precio y la mejora del rendimiento de la informática de datos intensivos.
Sr. MacKean declinó discutir propios planes de Google para el uso de la tecnología basada en energía en sus múltiples centros de datos masivos.Pero los analistas dicen que el abrazo de alimentación tiene dos ventajas cruciales para Google. En primer lugar, el gigante de Internet construye sus propios centros de datos y ajustes de la tecnología en sus equipos de servidor, y el régimen de licencias en la base de alimentación es amigo del hacker de una forma de manipulación de Intel de su propiedad intelectual no es.
La segunda ventaja de Google está negociando poder. En el apogeo de la era mainframe, las empresas japonesas como Hitachi hacen máquinas que competían con IBM. En aquellos días, los compradores de tecnología corporativos utilizan para referirse a la Cuando el equipo de ventas de IBM llegó, explicaron, teniendo la taza de café en su escritorio Hitachi fue valiosa en verdad "un millón de dólares Hitachi taza de café." - Un recordatorio a IBM que no había una alternativa, que se convirtió en una palanca para negociar precios más bajos.
Una tecnología de energía libre, según los analistas, podría servir un papel similar si se eleva a convertirse en una amenaza real, precio competitivo alternativa a los servidores basados ​​en Intel.
Y Google, dicen los analistas, es potencialmente un cliente lo suficientemente grande como para asegurar que la tecnología de energía es una alternativa. "Google podría hacer de este un mercado por sí solo", dijo Rob Enderle, analista independiente en San José.