viernes, 27 de enero de 2012

El Grafeno material del futuro

El Grafeno: Denominado como “el material del futuro”, es un derivado del grafito, de bajo coste, flexible, transparente y de gran conductividad. El descubrimiento del grafeno significó el Premio Nobel de Física 2010 para Andre Geim y Kostya Novoselov. El grafeno puede ser utilizado en procesadores, pantallas táctiles, celulares y paneles solares. Es hasta 10 veces más rápido que el silicio, un excelente conductor y permite enrollarse y plegarse.
                                                                                                                                        

El grafeno, un material bio-dimensional y de sólo un átomo de grosor, es el responsable de que la Real Academia de las Ciencias de Suecia haya premiado con el Nobel de Física a los investigadores rusos Andre Geim y Konstantin Novoselov.
La Academia definió el grafeno como el “perfecto entramado atómico”, y alabó el trabajo de Geim y Novoloselov, por “haber mostrado que el carbono en una forma tan plana tiene propiedades excepcionales que se producen en el interesante mundo de la física cuántica”.
Pero, ¿qué es el grafeno?
Elsa Prada, investigadora del Instituto de Ciencia de Materiales del CSIC, explica “el grafeno es un nuevo material que se pensaba que no podía existir”. Es una estructura laminar plana de grafito y está  “hecho de átomos de Carbono que se encuentran unidos entre sí formando una red hexagonal (los podemos imaginar colocados en los vértices de una red tipo panal de abejas)”.  La investigadora destaca algunas de sus cualidades “es la membrana más fina posible, pues su grosor es de tan sólo un átomo, y tiene la apariencia de una tela transparente y flexible, a la par que extremadamente resistente y conductora de la electricidad”.
La experta en materiales añade que el Carbono del que está hecho es un elemento fascinante, pues si bien es muy común es capaz de dar lugar a muy diversos materiales según la forma en la que unos átomos se unen a los otros. “Cuando se empaqueta densamente en una estructura tridimensional, tenemos un diamante. Si se organizan en capas bidimensionales débilmente unidas entre ellas, tenemos grafito, que encontramos cada día en las minas de los lapices y de esta forma se produce el Grafeno, material delgado y excesivamente resistente. Ahora les muestro este excelente video donde veremos algo más explicativo.


miércoles, 25 de enero de 2012

Diseño web


¿QUE ES DISEÑO WEB?

El diseño Web es una actividad que consiste en la planificación, diseño e implementación de sitios Web y páginas Web. No es simplemente una aplicación del diseño convencional sobre Internet ya que requiere tener en cuenta cuestiones tales como navegabilidad, interactividad, usabilidad, arquitectura de la información y la interacción de medios como el audio, texto, imagen y vídeo.
El diseño es la comunicación textual (contenidos) existente en Internet una faceta visual, sino que obliga a pensar una mejor estructuración de los mismos en este soporte. La unión de un buen diseño con una jerarquía bien elaborada de contenidos aumenta la eficiencia de la Web como canal de comunicación e intercambio de datos, que brinda posibilidades como el contacto directo entre el productor y el consumidor de contenidos, característica destacable del medio Internet.
El diseño Web ha visto amplia aplicación en los sectores comerciales de Internet especialmente en la World Wide Web. Asimismo, a menudo la Web se utiliza como medio de expresión plástica en sí. Artistas y creadores hacen de las páginas en Internet un medio más para ofrecer sus producciones y utilizarlas como un canal más de difusión de su obra.
Para poder hacer una pagina Web de calidad hay muchos programas el mas usado últimamente es el MACROMEDIA DREAMWEAVER, otro que es mucho mas fácil de usar es: MICROSOFT FROMPAGE, por ultimo otro de los mas usados y el mas difícil de dominar es el MACROMEDIA FLASH, hay varios tutoriales que son gratis uno de ellos es el en la red  aquí podrán encontrar algunos que les ayudara para hacer sus pininos y se conviertan en grandes máster
Ahora con el uso de las platillas es mucho mas fácil de hacer una web incluso los servidores de alojamiento web los tienen gratis para ti  con  vídeos tutoriales y fáciles de manejar.
Panel en español, bono de 50 dólares para publicidad en Adwords de google, programa para hacer paginas web en unos cuantos clik, programa para hacer blog, y mucho pero mucho mas ver mas información AQUI
Agradecimientos especiales por incluir mi blog en http://directoriogratuito.blogspot.com  si quieres saber mas del tema visita http://www.paginas-web.tancra.es 

domingo, 22 de enero de 2012

Ubuntu perdiendo popularidad rapidísimo ¿culpa de Unity?



No tengan miedo, fanáticos de Ubuntu, pero quiero decirles que Ubuntu ya no es sólo el segundo lugar en distros Linux, sino que ha caído al cuarto lugar, por detrás de Fedora, Linux Mint y -aunque usted no lo crea- OpenSUSE. ¿A quién debemos culpar? ¿Son acaso las otras distros mejores? ¿Es un fallo de Shuttleworth y su equipo en Canonical?
Pues quizás un poco de todo lo anterior. Ha habido mucha controversia alrededor de Unity -aunque también la ha habido con Gnome Shell-, la interfaz desarrollada por Canonical y que Ubuntu ha incluido como parte integral de su sistema operativo, empezando primero con las Notebook Remix y ahora -desde la versión 11.04- la interfaz por default del sistema operativo.

Quizás Ubuntu paga los platos rotos a la hora de haberse arriesgado con esta nueva interfaz. Pero Mint también ha puesto de su parte. Hay que analizar esta gráfica en la que se ve la evolución de la popularidad de distintas distros Linux en los últimos años, creada por RoyalPingdom. Aquí podemos ver algo trágico para Ubuntu, la distro disminuyó su popularidad en casi el 50% desde 2005 y por su parte, la popularidad de Mint está a la alza, con un aumento del 105%.
A la hora de usar Google Trends es fácil darse cuenta de que esta tendencia también sucede en los buscadores, se puede ver el declive de Ubuntu y el aumento de búsquedas de Linux Mint:
Quizás a muchos les parezca irónico el hecho de que Mint, que es un «hijo» de Ubuntu le esté arrebatando la corona de popularidad, pero no es la primera vez que pasa. Hay que recordar que Ubuntu tiene sus orígenes en Debian y es algo que de alguna manera repercute hasta el día de hoy en el operativo de Canonical.
Es tiempo de que Ubuntu empiece a notar que ahí hay algo, que quizás también sea su culpa. Es cierto que durante muchos años Ubuntu se ha convertido en la puerta de entrada de muchos al mundo de Linux, y que a partir de Ubuntu muchos han llegado a otras distros, pero es justo esa incapacidad de enganchar a los usuarios lo que hace que esto sea notorio, y Unity no la ha puesto fácil.
El hecho de que Ubuntu haya apostado por una solución de escritorio propia sólo demuestra que tenían una idea precisa de lo que querían lograr, pero por lo visto eso no es necesariamente lo que querían sus usuarios. Muchos dirán que Ubuntu está a la baja desde hace años, pero la verdad es que su popularidad ha ido decreciendo con mayor velocidad últimamente y esto coincide -no tan misteriosamente- con Unity como primera opción de escritorio. Quizás por eso ahora es posible instalar Gnome Shell mucho más fácilmente, y sugiero que le den un vistazo, vale la pena (de hecho es lo que he venido usando el último mes).
Ubuntu nos prometía Linux para seres humanos, pero se olvidan del factor más importante: la comunidad de usuarios detrás de él. Es tiempo de que se replanteen muchas cosas si es que quieren mantener su decadente popularidad. ¿O será tiempo de que otro ocupe su lugar? Probablemente lo veamos en un futuro no muy lejano.

La FSF lanza campaña contra Secure Boot




La posibilidad de que Microsoft vaya a exigir a los fabricantes de hardware la inclusión del mecanismo Secure Boot en sus computadoras si quieren lucir en ellas el logotipo de compatibilidad con Windows 8, ha disparado la alarma en la FSF (Free Software Foundation), que ha lanzado una campaña con la que intenta concienciar a los usuarios y recoger firmas de estos para enviarlas a los fabricantes, gobiernos, y la misma Microsoft.
Secure Boot es una tecnología que impide que la computadora arranque cualquier sistema operativo que no haya sido firmado digitalmente.
Esto, en teoría, debería hacerlo más seguro (y así es), pero a la práctica también limita en gran medida la ejecución de copias pirata en las computadoras que lo utilizan, algo que parece ser un verdadero quebradero de cabeza para Microsoft.
Las implicaciones para el software libre pueden ser demoledoras, puesto que la posibilidad de modificar el código fuente y correrlo modificado, es uno de sus puntales fundamentales. Pero, si modificamos el código fuente, el certificado digital ya no será válido por las modificaciones introducidas que se reflejan en el producto de la compilación.
La FSF ha tildado a Secure Boot como Restrictive Boot, y ha iniciado la campaña de recogida de firmas antes mencionada

Sony lanza USB 3.0 de hasta 64 GB



El nuevo protocolo de USB, el USB 3.0, ya está empezando a cobrar presencia en el mercado. Cada día es más importante tener dónde almacenar grandes cantidades de información y tener acceso a ellos de una forma sencilla, si bien los servicios de almacenamiento en nube han resultado ser muy eficientes, cuando se trata de pasar 1 o 2 GB de información ninguna conexión de Internet nos es suficiente. Pendrive Sony
Es por ello que el USB 3.0 es una propuesta interesante a la que Sony ha decidido apegarse con sus nuevas memorias USB Micro Vault MACH. El pendrive estará disponible en capacidades de 8, 16, 32 y hasta 64 GB. Además la Vault MACH cuenta con un diseño sencillo y una cubierta de aluminio para brindarles mayor protección a las caídas.
Con la nueva tecnología de USB 3.0 se podrá transmitir a velocidades de hasta 4.8 Gbps, poco más de 10 veces más rápido que el USB 2.0 (480 Mbps). Gracias a este nuevo protocolo de transferencia de datos podremos copiar películas de alta definición en cuestión de segundos.
La fecha de lanzamiento ni el precio han sido anunciados aún, pero se espera lleguen al mercado durante Febrero.

Raspberry Pi tu computadora por $25 USD



Desde hace tiempo se ha hablado de cómo los precios de las computadoras tenderán a irse abajo conforme los desarrollos tecnológicos avanzan cada vez más rápido. Tal es el caso de Raspberry Pi, una computadora que se está produciendo en masa y cuyo precio será de tan solo 25 dólares. Raspberry Pi PC
La computadora aún no tiene fecha de lanzamiento, pero desde principios de este año se han empezado a producir un gran volumen de estas mini computadoras con la expectativa de que se venderán rápidamente.
Existirán dos modelos de la Raspberry Pi, una versión básica que contará con memoria ram de 128 MB cuyo precio será de tan solo 25 dólares; y un segundo modelo que contará con 256 MB de memoria RAM y puerto Ethernet por un precio de 35 dólares.
Ambas computadoras operan con un procesador ARM de 700 MHz y tendrán soporte para USB y SD, además de contar con puertos RCA y HDMI para transmitir video y audio. La computadora opera a base del sistema operativo Linux. Podríamos decir que se trata de una computadora promedio de finales de los 90s.
El proyecto Raspberry Pi es una iniciativa fundada por la Universidad de Cambridge cuyo objetivo es crear computadoras económicas las cuales permitan a los niños aprender programación básica de una forma didáctica y sencilla.
Las ventas de Raspberry Pi iniciarán una vez que se tenga un lote de por lo menos 10,000 computadoras, lo cual pudiera ser para dentro de una o dos semanas.

Tutorial: Cómo conectar dos monitores a nuestra pc


Requisitos


Tener una laptop con salida VGA / DVI – Si tienen una laptop relativamente reciente 
(en realidad, laptops de hace 5 años y todas las netbooks, tienen una salida VGA)

ó

Tener una tarjeta de video con dos salidas VGA / DVI – menos común, sobre todo si compran una PC
y no compran una tarjeta de video aparte. Pero es solucionable; basta que busquen una tarjeta de video relativamente nueva (pueden empezar con las ATI Radeon 48xx HD o las nVidia 9xxxx, pues hay modelos desde $80 para arriba, y tendrán unos excepcionales resultados ), e instarlarla en nuestra PC. Aquí tienen un ejemplo con una tarjeta de video con dos salidas, una VGA, otra DVI (la mayoría de tarjetas hoy en día viene con dos salidas DVI, para monitores LCD)

Y por supuesto, un segundo monitor. Lo mejor de todo es que los monitores han bajado bastante de 
precio. Ahora, lo óptimo, es conseguirse un segundo monitor de la misma marca y el modelo exacto al actual, pues así podremos conseguir no sólo que se vea mejor en nuestro escritorio, sino que los perfiles de color serán idénticos. No es absolutamente necesario, pero es recomendable.

Aún así, añadir un segundo monitor más pequeño (quizás uno de 15”) también ayudará bastante.

Una vez que tengan el escritorio (real) ordenado, y los dos monitores en éste (o el monitor y
la laptop), pasemos a conectar ambos.
Cómo?

Pues bastante fácil. Basta con conectar el segundo monitor (asumiendo que ya tienen el 
primero funcionando) a la corriente y al puerto VGA o DVI de la tarjeta de video o laptop.

Una vez hecho esto, Windows lo reconocerá inmediatamente pero, en un principio, no hará nada.
Nosotros tendremos que hacerlo por él.

Dependiendo de la versión de Windows, las opciones cambian:

Windows XP

* Tenemos que darle click derecho al escritorio, y luego ir a Propiedades.
* Una vez dentro de las propiedades, nos vamos a configuración.Veremos nuestro segundo 
monitor en “gris” porque está desactivado. Así que le damos click al monitor que dice “2”
* Aquí, veremos la opción de “Extener el escritorio a esta pantalla”, así que la activamos, elegimos
la resolución (en el manual del monitor debería estar establecido la resolución a la que trabaja, pero usualmente es: 17-19”=1440×900, 20”-22”=1680×1050, 24” = 1920×1200)

* Una vez hecho esto le damos click en “Aplicar”, y listo! Monitor activado.

Windows Vista.

* Le damos click derecho al escritorio, y vamos a “Personalizar”. Otra opción es ir a Inicio
/ Panel de Control / Apariencia y Personalización.
* Una vez aquí, vamos a Propiedades de Pantalla (Display Settings), la primera opción en el ejemplo

Una vez que estén aquí dentro, verán una ventana casi idéntica al a de XP (si, nunca sabremos
por qué se molestaron tanto en cambiar el modo de acceso en Vista…), así que click en el segundo monitor, check en “Extender escritorio a este monitor” y listo.

Windows 7

Windows 7 regresa a la simplicidad de Windows XP para cambiar de resoluciones, añadir monitores.

Basta con darle click derecho al escritorio, y luego ir a “Resolución de pantalla”

Una vez dentro, verán a los monitores conectados, y cuales están o no activados. Nuevamente, 
extendemos el escritorio al monitor secundario, click en Ok, y listo!

Tip: Una ventaja que ofrece Windows 7, es que nos permite cambiar la orientación del monitor, 
muy útil para cuando tenemos uno de esos monitores capaz de girar 90º.



Antes de cerrar las ventanas, prueben, y arrastren los monitores. Así es, desde aquí, podemos
reordenarlos, quizás mandar el secundario a la izquierda en lugar de a la derecha, poner uno más alto que el otro, y acomodarlos como queramos.

Como pueden ver, no es nada complicado, y realmente, una vez instalado el segundo monitor, 
verán cómo ahora resulta más simple estar con múltiples aplicaciones abiertas. Una vez que prueben la configuración de monitores duales, seguramente no querrán volver atrás.

Presentado el nuevo portátil del MIT (OLPC v. 3 por $75)


La lista de características es sorprendente: impermeable al agua, dos veces más delgado que un iPhone, pantalla semi-flexible de 8.5″ x 11″, carga de baterías por inducción y consumo de energía inferior a 1 vatio. Todo por menos de 75 dólares. Al menos eso es lo que se dice del XO-3, la tercera generación del portátil del MIT, One Laptop Per Child (OLPC), diseñado por Yves Behar.

El fundador del MIT, Nicholas Negroponte, inició este proyecto para construir y suministrar portátiles a un precio asequible ($100) a niños del tercer mundo en 2005. Las cosas no han ido como se pensaba (los portátiles salían por algo más de ese precio y los países pobres tampoco demostraron tanto interés como se esperaba) pero el proyecto sigue adelante, recientemente se han publicado las especificaciones del nuevo diseño conceptual del XO-3 propuesto para 2012.

Como subraya Forbes, en lugar de una pantalla táctil de cristal, el XO-3 tendrá una semi-flexible de plástico como único interfaz. La generosa pantalla, del tamaño de un folio, rotará en función de la posición e incluirá un teclado en la misma. Además, la pantalla estará optimizada para su uso tanto en el exterior como en el interior.

En lugar de enchufarlo a un cargador, los portátiles podrán apilarse cerca de un dispositivo de recarga del que extraerán la energía vía inducción electromagnética.

viernes, 20 de enero de 2012

Que es la ley SOPA





Qué es la Ley SOPA y por qué debería importarte?
Ya desde hace buen tiempo se viene hablando de la ley SOPA (Stop Online Piracy Act), un proyecto de ley presentado en octubre del 2011 que tiene como objetivo combatir la descarga ilegal de contenidos con derechos de autor subidos a la red (en teoría). Es decir, todas tus series favoritas, las cuales bajas a tu computadora o simplemente ves en línea a través de algún sitio en Internet, incluyendo música y libros electrónicos principalmente, serán sacadas de la red junto con un bloqueo de la web que las aloja.

Menos iniciativas en la red: Al tener a vigilantes SOPA en Internet, muchos startups o proyectos no recibirísan el apoyo financiero de cualquier tipo de inversión por el temor a ser bloqueados en cualquier momento, lo cual derivaría en la pérdida de capital, tiempo y oportunidades a los emprendedores.

Adiós a Facebook, Twitter y redes sociales: Como la ley SOPA tiene la facultad de bloquear cualquier tipo de contenido con copyright subido por usuarios o propietarios del sitio, todas las webs basadas en comunidades y con muchísimo contenido subido por millones, sufriría el bloqueo porque sería inevitable que se alojara contenido con copyright. En otras palabras, se van las redes sociales, se va la comunicación rápida y eficiente (en otros casos simplemente la anularía por ser la única vísa) con seres queridos, amigos lejanos e incluso contactos profesionales.

Atenta contra la libertad de expresiósn: Digamos que un reportero ciudadano sube un a Youtube informando sobre algúsn tema noticioso o, alguien decide subir contenido periodístico de algún lugar lejano para conocer sobre algún hecho terrible, podría ser bloqueado. Si un periodista escribe un artículo que, a pesar de no infringir derechos de autor, enlaza a un video de Youtube o algún sitio web que no es bien visto por SOPA, también serísa bloqueado. Los medios tendrían que someterse a una autocensura para evitar problemas, el periodismo ciudadano chocaría contra un muro.


Y por qué es malo que esta ley no me permita consumir contenidos ilegales?

Bueno, es esa una muy buena pregunta. Y no voy a defender el consumo de contenidos ilegales, aunque tampoco me voy a mostrar en contra. He visto que muchos se muestran a favor porque ya no podrán ?compartir? los enlaces y que eso atenta contra la libertad en Internet. Razon que me parece de lo más egoísta y menos pensada que se puede dar. En ese sentido no la defiendo porque es utilizar piratería en favor de propóssitos meramente de entretenimiento, pero tampoco me muestro en contra porque gracias a la piratería, muchos profesores y alumnos de bajos recursos pueden acceder a contenidos altamente educativos, a los que no podrían llegar a través de medios normales.

Solo por las descargas ilegales debería preocuparme la ley SOPA?

En Twitter podemos apuntarnos a grupos relacionados con nuestra actividad profesional y obtener información interesante, así como establecer relaciones con posibles clientes y socios. Al crear una cuenta de Twitter, daremos una imagen de accesibilidad e invitaremos a nuestros clientes a comunicarse con nosotros.

Pero esto solo afecta a Estados Unidos, no?
Ehrmm Sí y no. El tema es que gran parte de los sitios web en Internet están alojados en Estados Unidos y cuentan con dominios allí, lo cual los hace sujetos de esta ley. En nuestro país el tema no sería muy diferente por al siguiente razón. el Perú viene negociando el famoso Trans Pacísfic Partnership Agreement (TPPA) que abarca también un capítulo dedicado a los derechos de autor en Internet con una lógica similar a SOPA y PIPA. Siendo Estados Unidos el principal promotor de TLCs y de tratados plurilaterales como el TPPA es muy probable que si se logran aprobar SOPA y PIPA estas influyan en, tanto la implementación del TLC como la negociación del TPPA. Ajustes más, ajustes menos, si ya importamos la DMCA por qué no SOPA y PIPA?,

Conclusión:

Como redacté líneas arriba, la ley SOPA me parece en principio mala, realmente creo que defiende algo justo ( PARA LOS OLIGARCAS). Sin embargo, creo que primero debería especificarse claramente contra qués tipo de contenidos será hecha para evitar conflictos, todo esto si tenemos en cuenta que esta iniciativa ha sido impulsada principalmente por las industrias del cine y la mússica a travéss de parlamentarios estadounidenses. Por qués? Porque hace tiempo que están perdiendo dinero debido a la piratería.
Podrían ofrecer servicios en línea en conjunto, como se hizo con el iTunes de u ofrece Spotify, sin embargo, el tema es que cada sello discográfico quiere el mayor pedazo de la torta, hecho que no ayuda a la colaboración. Pero ese ya es otro tema. En fin, solo debo acotar que detrás de esta ley se mueven millones de dólares y harto lobby.






Si no entendiste muy bien te dejo un video(gracias a 
@ElMurcionocalla por comentarlo)







link: http://www.youtube.com/watch?v=5fvwoHKj6cs&feature=share




SI NO QUIERES QUE SE APRUEBE LA LEY VOTA ACA:

http://www.avaaz.org/es/save_the_internet/#vc

para votar solo rellena los datos que estan dentro del "cuadro" rojo

Novedades importantes de Ubuntu Oneiric Ocelot 11.10


Ubuntu logoLa espera ha sido larga, pero Ubuntu 11.10 ya está disponible para descargar. Sabemos que muchos de vosotros esperáis pacientes cada seis meses las nuevas versiones de la distribución GNU/Linux de Canonical, y sin duda alguna Oneiric Ocelot viene cargado de novedades.
En Noticias Ubuntu queremos hacer un repaso por las características más destacadas de esta nueva versión.
¿Os apetece saber qué nos encontraremos en el escritorio, tras instalar nuestra flamante versión de Ubuntu? Acompañadnos y echemos un vistazo

Nueva pantalla de acceso

Lo primero que nos llamará la atención, cuando arranquemos por primera vez Ubuntu 11.10 Oneiric Ocelot, es la pantalla de acceso al sistema, la cual ahora utiliza LightDM, en lugar del tradicional GDM.
Con este cambio, Canonical quiere adaptar la pantalla de bienvenida al nuevo estilo por el que está apostando la distribución en sus últimas versiones.
Ubuntu 11.10 Oneiric Ocelot - login - LightDM
Los controles situados en la parte superior derecha de la pantalla nos darán acceso a multitud de funcionalidades: opciones de accesibilidad (teclado en pantalla, alto contraste, etc.), opciones de volumen, calendario, así como el menú de apagado e hibernación del sistema.
Al lado del cuadro de login tenemos un símbolo de rueda dentada, el cual nos permitirá alternar entre el interfaz Unity 2D y Unity 3D, así como otros shells o escritorios que instalemos posteriormente (como por ejemplo: GNOME Shell o KDE4).

Nuevas funcionalidades en el Dash

El Dash de Ubuntu 11.10 ha sufrido una mejora sustancial, y no solo en cuanto a estética se refiere, sino en cuanto a funcionalidad, con cambios bastante acertados en nuestra humilde opinión.
En primer lugar, se ha modificado el botón que abre el Dash para integrarlo (como un icono más) en la parte superior del lanzador de aplicaciones, con el logotipo de la distribución.
Ubuntu 11.10 Oneiric Ocelot - Dash
Por otra parte, el menú Lugares ha desaparecido del panel superior, y los botones de cerrar/minimizar/maximizar ahora están ubicados en el lugar donde teníamos anteriormente el botón para abrir el Dash.
Cuando abrimos el Dash de Ubuntu mediante el lanzador de aplicaciones, podemos observar que se ha mejorado el efecto de transparencia y que se han añadido 4 iconos en la parte inferior, denominados lenses o lentes, que nos permiten acceder a diferentes vistas para mostrar la información que buscamos en nuestro equipo.
La primera (icono con forma de casa) nos permite acceder a los programas predeterminados más populares, así como al resto de opciones, comportándose como el Dash de Ubuntu 11.04. La segunda nos permite acceder a nuestras aplicaciones, y la tercera a los archivos y carpetas de nuestro equipo.

Pero sin duda alguna, la que más nos ha llamado la atención es la lente de música (la que tiene el icono de dos notas musicales), que nos permite realizar una búsqueda con criterios de filtrado avanzado en nuestra colección de audio.

Mejoras en Unity

Ubuntu 11.10 estrena las librerías de GNOME 3.2 e incluye cambios en la interfaz de usuario bastante interesantes.
Los usuarios de Unity 2D van a poder disfrutar de una experiencia similar a los usuarios de Unity 3D pero sin transparencias. Una alternativa para todos aquellos que tengáis equipos de pocos recursos, y muy enfocada a los netbooks o a todos aquellos que prefieran sacrificar la estética en pos del rendimiento.
Por otra parte, ahora los botones de cerrar/minimizar/maximizar se ocultan automáticamente cuando tenemos una ventana maximizada. Y además, cabe destacar que se ha mejorado el intercambiador de ventanas mediante la combinación de teclado Alt+Tab, el cual ahora incluye la opción de mostrar el escritorio, así como desplegar un subconjunto de ventanas relacionadas si mantenemos el cursor de selección durante un par de segundos sobre una aplicación.
Ubuntu 11.10 - Oneiric Ocelot - Alt Tab

Nuevo Centro de software de Ubuntu

Sin duda alguna, el nuevo Centro de software 5.0 merece una mención especial. El nuevo diseño para mostrar sugerencias de software para descargar, la gran cantidad de aplicaciones disponible en los repositorios de Canonical, así como la nueva y cuidada estética del Centro de software de Ubuntu, nos permite asegurar que nos encontramos ante uno de los gestores de aplicaciones más avanzados dentro del mundo Linux.
Oneiric Ocelot - Ubuntu software center
Su diseño, basado en GTK3, se ha renovado totalmente, y se han incluido características interesantes como la de poder valorar y comentar las aplicaciones que nos descargamos, además de modificarse el tradicional icono del Centro de software, el cual se ha sustituido por una especie de bolsa de la compra, siguiendo la actual tendencia de las stores, tan en boga en estos tiempos.
Todas estas mejoras, han conseguido que el nuevo Centro de software de Ubuntu gane en usabilidad y presentación, lo cual repercute en una mayor comodidad a la hora de instalar nuestras aplicaciones favoritas, así como a la hora de descubrir nuevo software.

Cambios en el panel del sistema

La bandeja del sistema ha sufrido una ligera remodelación. Para empezar, y al igual que en GNOME Shell, todas las opciones para la configuración del sistema se han agrupado en el menú Configuración del sistema, accesible en el botón Apagar/Reiniciar/Hibernar, que ahora es un icono con forma de rueda dentada, indicando que alberga dichas opciones de configuración. Así mismo los indicadores del panel superior también han sufrido una ligera remodelación.
Ubuntu 11.10 - Oneiric Ocelot - Configuración del sistema

Tema por defecto y nuevos wallpapers

Se han retocado los temas predeterminados de Ubuntu, Ambiance y Radiance, así como las fuentes de la distribución. Además, la nueva versión incluye una cuidada selección de fondos de escritorio.
Ubuntu 11.10 - Oneiric Ocelot - Wallpapers

Nuevas aplicaciones predeterminadas

En el apartado de las aplicaciones preinstaladas, existen algunas novedades significativas, como la incorporación de Thunderbird 7.0.1 como nuevo cliente de correo electrónico por defecto, en lugar de Evolution.
Además, Ubuntu 11.10 incluye las últimas versiones de los programas más populares: Firefox 7.0.1, LibreOfficie 3.4.3, Banshee 2.2.0 o Gwibber 3.2, cuyo cliente se ha renovado en buena medida. Así como otros paquetes interesantes para desarrolladores: GCC 4.6, Python 2.7.2 (estando también disponible la versión 3.2.2), etc.
LibreOffice
Por otro lado, el gestor de paquetes Synaptic y PiTiVi ya no vienen instalados  de serie, aunque pueden instalarse a través del Centro de software de Ubuntu 11.10.

Nuevo kernel y arquitectura soportada

Ubuntu 11.10 incorpora el nuevo kernel 3.0.12, así como soporte para algunas arquitecturas ARM, cuyos usuarios podrán disfrutar a partir de ahora de la distribución de Canonical en sus equipos.

Ubuntu One

Ubuntu One obtiene una mejor integración con el Dash, ofreciendo la posibilidad de reproducir música desde nuestra cuenta.
Ubuntu One - Comparte con otros

Conclusiones

Los chicos de Canonical han realizado un gran esfuerzo los últimos meses, y el resultado es que nos encontramos con un escritorio más trabajado que el que pudimos disfrutar en la versión anterior.
Si bien el aspecto estético del escritorio se ha cuidado especialmente, las mejoras de usabilidad en Unity son notables, indicativo de que el entorno de escritorio va por buen camino.
No sé si alguien se acuerda ya, pero tiempo atrás, muchos usuarios clamaban por una renovación estética de Ubuntu, que por aquel entonces vestía unos tonos marrones.
Este cambio comenzó a materializarse con la llegada de nuevos temas y de Unity en las versiones de Ubuntu 10.10  y Ubuntu 11.04. Y aunque el nuevo escritorio de Ubuntu ha recibido duras críticas debido a su, quizá, estado inmaduro, la propuesta sigue avanzando a paso firme con el lanzamiento de esta versión.
Coincido en que, si bien Unity sigue siendo poco personalizable, cada vez es más usable, ofreciendo un escritorio sencillo a los usuarios de la distribución, que si recordáis, es el objetivo principal de Ubuntu, llegar a todos “los seres humanos” posibles. En este sentido, Unity consigue ser un escritorio que nos permite realizar actividades cotidianas con suma facilidad.
En Noticias Ubuntu | ¡ Ubuntu 11.10 ya está aquí !
En Noticias Ubuntu | Cómo instalar Ubuntu 11.10 (vídeo)

Windows 8 requeriría el mismo espacio de disco que Windows 7


Windows 8
Cada vez estamos obteniendo más información sobre Windows 8, se estima que esta versión va a requerir prácticamente el mismo espacio de disco duro que requiere Windows 7.
Por lo tanto se puede considerar qué no va hacer un sistema operativo que van incluir muchísimas mejoras en comparación a la versión 7.
Hasta el momento Microsoft no ha revelado mucho más información de forma oficial todos estos datos se están obteniendo mediante filtraciones de diferentes fuentes, recordar que en muchos de los casos estas terminan siendo reales.
Esta información ha sido obtenida de la imagen que pudimos ver hace unos días donde Windows 8 va permitir la instalación de una USB donde estaba requiriendo un mínimo espacio de 16 GB.

Cómo se va a llamar la próxima versión de Windows

Muy probablemente tú también te estás haciendo esta misma pregunta que me he hecho yo, ¿cuál va a ser el nombre de la próxima versión del sistema operativo de Windows?
Windows 8
Cuando estamos hablando de esto nos referimos a la próxima versión de Windows 7 por el momento muchas personas lo llaman Windows 8, pero no considero si va a tener ese mismo nombre ya que Windows XP era la versión 5 y nadie conoce como Windows 5, Windows vista es la versión 6 y nadie conocia como Windows 6. Windows 7 si es conocido con este nombre ya que no tiene ningún otro nombre.
Ahora bien, Como se va a llamar la próxima versión, hasta el momento Microsoft no ha revelado el nombre pero ya algunas personas hablan que se va a llamar Windows milestone, cosa que considero que dentro de muy poco va ser confirmado por parte de la empresa o dar otro nombre.
Si es probable que se llame Windows milestone porque muchos de los casos estos datos suelen salir de filtraciones que se dan y al final terminan siendo ciertos, pero en otras ocasiones son todo lo contrario porque Windows 7 primeramente dijeron que se iba a llamar Windows Viena y al final no fue así.
Por ahora lo que nos toca esperar y lo invitamos a que lo siga visitando, nos siga en las redes sociales para estarle llevando las últimas noticias sobre próxima versión del sistema operativo de Windows.

Cuando sale Windows 8

Seguro muchas personas están ansiosos por poder descargar Windows 8, y ya se están preguntando cuando sale, para comenzar primero vamos a ver varias versiones en desarrollo, las famosas “betas”.
Cuando sale Windows 8
Luego van ir evolucionando para poder ver una versión final o definitiva, pero hasta el momento no hay una fecha específica, pero esperamos que los en los primeros 5 meses del 2012 podamos tener una versión beta liberada al público para poder descargarla.
Es muy probable que Windows 8 final salga en el 2013, pero desde el próximo año vamos estar probando versiones en desarrollo. Por lo que a nosotros nos concierte prometemos llevarles las ultimas noticias para que usted en su debido momento lo pueda descargar.

Descargar fondos de pantalla de Windows 8

Estoy muy seguro que muchos de nosotros ya estamos esperando la próxima versión del sistema operativo de Microsoft: Windows 8.
Descargar fondos de pantalla de Windows 8
Es por eso que deseamos compartir con ustedes estos wallpapers de Windows 8, son 3 de diferentes estilos de altas resoluciones, uno esta confirmando que es oficial los demás es probable que no lo sean pero son muy atractivos.
No importa la resolución que tenga en su ordenador porque tienen una alta definición, sin duda le van a dar un toque especial de Windows 8, el enlace de la descarga es directo.
Descargar fondos de pantalla de Windows 8 gratis

Administrador de tareas de Windows 8

En esta imagen van a poder ver el nuevo admirador de tareas de Windows 8, como pueden apreciar viene completamente rediseñado con módulos con mucha mas información.
Este nuevo Administrador de tareas de Windows 8 trae un aspecto muy novedoso al mismo tiempo atractivo proporcionándole un toque especial a este sistema operativo.
Administrador de tareas de Windows 8
Sobre todo vendrá mejorado en cuando a procesadores que traen más de un nucleo porque se va poder ver el desempeño de cada uno de ellos de forma individual, obteniendo mucha más información.
Windows 8 viene con muchas mejoras y nosotros nos vamos a manteniéndolos informándoles todo el tiempo.

Requisitos del sistema de Windows 8

Seguramente usted se está haciendo esta pregunta en Windows noticias les vamos a dar los requisitos del sistema de Windows 8 no oficiales, sino más bien las que nosotros consideramos que pueden ser las indicadas por parte de Microsoft
requisitos del sistema

Requisitos:

• RAM 1 GB, optimo 2 GB
• Disco duro 20 GB
• 128 MB de video
• Procesador de 1.5 Ghz
Si usted tiene un ordenador con Windows 7 es muy probable que va a poder actualizar a Windows 8 sin ningún problema, recordar que entre más rápido sea su procesador mejor será de desempeño del sistema en cuando a velocidad.

jueves, 19 de enero de 2012

Circuitos fotónicos: el potencial de una nueva tecnología

En nuestra vida cotidiana estamos interesados en eventos que ocurren en la escala del tiempo hasta el orden de segundos, por ejemplo cuando llamamos por celular, cuando nos medimos la presión arterial, etc..  Es por ello que  nuestros relojes de uso común tienen como unidad mínima de medida el segundo.
Con el desarrollo de las computadoras y su introducción gradual en casi todas nuestras actividades de manera irremediable, frecuentemente los segundos que tenemos que esperar ante el monitor para que nuestra computadora se inicialice o abra una aplicación, consumen una parte razonable de nuestro tiempo (en espera). Como consecuencia, siempre que es posible buscamos mejorar nuestro sistema de cómputo o sustituirlo por uno más moderno y de más rápida respuesta, o asistimos al cyber café que tenga la mejores máquinas.
Dependiendo de nuestro grado de conocimiento de lo que es una computadora, podemos pedir simplemente que sea suficientemente buena (rápida) para desarrollar las tareas a la que nos dedicamos, acorde a nuestra actividad, o podemos especificar el tamaño de disco duro, monitor, memoria RAM, etc.
Entre la lista de características específicas hay una que determina en mucho la “rapidez” de nuestra computadora: la frecuencia del procesador. Actualmente nos es familiar encontrar entre las opciones de procesadores 1.8, 2, etc., hasta 3.4 Gigahertz (Ghz). Este número es tan importante que el precio de la computadora va relacionado a él. A mayor frecuencia, el procesador será mas rápido, el precio se incrementa y a cambio reducimos el tiempo de espera para ejecutar procesos. Dado que la frecuencia representa el numero de ciclos por segundo, su reciproco representa el tiempo que tarda un solo ciclo. Por ejemplo en el caso del procesador de 3.33 Ghz un ciclo toma aproximadamente tres diez millonésimas de segundo (3/10 000 000 seg). En este tiempo el procesador se enciende y realiza una serie de cálculos utilizando los millones de transistores que lo constituyen, almacena la información procesada y luego se apaga para disipar el calor generado por las corrientes electrónicas en los materiales que componen los circuitos y después viene otro ciclo de proceso. ¡Entonces el interés por realizar nuestras tareas más eficientemente, lleva implícita la preocupación de hacer cálculos en esta nueva escala de tiempo!
A pesar de la extraordinaria rapidez de los procesadores actuales para realizar cálculos, las tareas encomendadas a los procesadores a través de los programas de software son cada vez más complejas, de manera que la demanda por procesadores más rápidos y de arquitectura más compleja va en aumento continuamente. El problema en la actualidad es que la tecnología de los materiales del estado sólido utilizada para fabricar los circuitos integrados, esta llegando al límite físico en que ya no es posible aumentar la densidad de componentes (transistores, diodos y capacitores) miniaturizando los circuitos, ni continuar incrementando la rapidez del procesador.


 
Evolución de los procesadores durante los últimos años y su correlación entre frecuencia (diamantes) y numero de transistores (cuadrados). La escala para este número va mutiplicada por 1000. (Fuentes: Intel y Wikipedia).
 
Por esta razón, desde hace un par de años los fabricantes de procesadores están optando por modificar la arquitectura de diseño de los mismos para trabajar con grupos de ellos llamados clusters. Es por ello que recientemente empezaron a aparecer disponibles comercialmente los procesadores múltiples con los adjetivos duo (dos) o quad (cuatro).
En base a lo anterior, los científicos ahora están buscando desarrollar tecnologías alternativas. Una tecnología que presenta buenas expectativas y a la cual los países del primer mundo le están dedicando gran cantidad de recursos, es la de los cristales fotónicos.
Un cristal fotónico, se constituye de un arreglo periódico de diferentes materiales en una, dos o tres dimensiones. Si nos referimos a una dimensión en realidad estamos hablando de sistemas de capas delgadas, en dos dimensiones tenemos barras de cierta sección transversal y en el caso tridimensional tenemos cubos. En general los bloques o celdas de que se constituye un cristal fotónico pueden tener formas variadas.
Lo interesante de estos sistemas es que si el tamaño de las celdas es del orden de la longitud de onda de la luz, entonces se pueden diseñar de tal manera que un haz de luz láser por ejemplo al iluminar al cristal sea completamente reflejado.
Un sistema que refleje la luz es casi trivial de fabricar (¡Todos tenemos espejos de bromuro de plata en casa!), entonces ¿Para qué tanta complicación?
Los espejos metálicos aunque no lo notamos, absorben parte de la luz que incide sobre su superficie y la convierten en calor. Los cristales fotónicos se pueden diseñar de tal manera que las perdidas sean despreciablemente pequeñas.
Otra propiedad interesante de los cristales fotónicos, es que podemos abrir canales que en términos ópticos se llaman guías de onda, a través de los cuales la luz puede viajar.
Guía de onda en un cristal bidimensional. Hemos hecho incidir un haz de láser que al no poder propagarse al interior del cristal sigue precisamente el camino de la guía de onda sin sufrir pérdida de energía.
Las dimensiones del cristal mostrado en la última figura son del orden de una milésima de milímetro o más precisamente tiene un área de una micra cuadrada, entonces podemos tener algo así como un millón de estas guías de onda en un centímetro cuadrado. Se ha demostrado teórica y experimentalmente (en desarrollo) que es posible construir sistemas como estos que incluyan elementos ópticos análogos a los elementos de la electrónica (transistores, capacitares, etc.) para lograr conmutar, amplificar, dividir, mezclar, etc., etc., diminutos haces de luz con la finalidad de fabricar circuitos fotónicos que sean capaces de mejorar el desempeño de nuestros procesadores actuales y hacerlos hasta ¡1000 veces más rápidos que los que tenemos actualmente!. Entonces en una o dos décadas tal vez cuando vayamos a la tienda de computadoras podremos elegir nuestra máquina con un procesador de 3000 Ghz o equivalentemente 3 Terahertz (Thz).



*Investigadores del Centro de Investigaciones en Óptica

Breve historia del microprocesador

Hasta los primeros años de la década de 1970 los diferentes componentes electrónicos que formaban un procesador no podían ser un único circuito integrado, era necesario utilizar dos o tres "chips" para hacer una CPU (un era el "ALU" - Arithmetical Logic Unido, el otro la " control Unido", el otro el " Register Bank", etc ..). El 1971 la compañía Intel consiguió por primera vez de poner todos los transistores que constituían un procesador sobre un único circuito integrado, el"4004 "', nacía el microprocesador.
Seguidamente se expone una lista ordenada cronológicamente de los microprocesadores más populares que fueron surgiendo.


El 4004 fue el primer microprocesador del mundo, creado en un simple chip, y desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom[1] y dio camino a la manera para dotar de «inteligencia» a objetos inanimados, así como la computadora personal.



Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.
El SC/MP desarrollado por National Semiconductor, fue uno de los primeros microprocesadores, y estuvo disponible desde principio de 1974. El nombre SC/MP (popularmente conocido como «Scamp») es el acrónimo de Simple Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta un bus de direcciones de 16 bits y un bus de datos de 8 bits. Una característica, avanzada para su tiempo, es la capacidad de liberar los buses a fin de que puedan ser compartidos por varios procesadores. Este microprocesador fue muy utilizado, por su bajo costo, y provisto en kits, para propósitos educativos, de investigación y para el desarrollo de controladores industriales diversos.
 




EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de MITS, según se alega, nombrada en base a un destino de la Nave Espacial «Starship» del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema operativo CP/M-80. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de u$s395. En un periodo de pocos meses, se vendieron decenas de miles de estas PC.
                                                             
              

La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits construido en tecnología NMOS, y fue basado en el Intel 8080. Básicamente es una ampliación de éste, con lo que admite todas sus instrucciones. Un año después sale al mercado el primer computador que hace uso del Z80, el Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del cual se han producido numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la actualidad en multitud de sistemas embebidos. La compañía Zilog fue fundada 1974 por Federico Faggin, quien fue diseñador jefe del microprocesador Intel 4004 y posteriormente del Intel 8080.

Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los triunfos comerciales de los sesenta.
El 80286, popularmente conocido como 286, fue el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de 6 años de su introducción, había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor del mundo.
Este procesador Intel, popularmente llamado 386, se integró con 275000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que usaran memoria virtual.
            
                                                          
  • 1985: El VAX 78032
El microprocesador VAX 78032 (también conocido como DC333), es de único chip y de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto con su ship coprocesador de coma flotante separado, el 78132, tenían una potencia cercana al 90% de la que podía entregar el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador contenía 125000 transistores, fue fabricado en tecnologóa ZMOS de DEC. Los sistemas VAX y los basados en este procesador fueron los preferidos por la comunidad científica y de ingeniería durante la década del 1980.
La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más complejas son realizadas por el coprocesador de manera prácticamente independiente a la función del procesador principal.

  • 1985: El VAX 78032
El microprocesador VAX 78032 (también conocido como DC333), es de único chip y de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto con su ship coprocesador de coma flotante separado, el 78132, tenían una potencia cercana al 90% de la que podía entregar el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador contenía 125000 transistores, fue fabricado en tecnologóa ZMOS de DEC. Los sistemas VAX y los basados en este procesador fueron los preferidos por la comunidad científica y de ingeniería durante la década del 1980.
La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas,un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más complejas son realizadas por el coprocesador de manera prácticamente independiente a la función del procesador principal.









Procesadores fabricados por AMD 100% compatible con los códigos de Intel de ese momento, llamados «clones» de Intel, llegaron incluso a superar la frecuencia de reloj de los procesadores de Intel y a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.
Es un procesador de tecnología RISC de 32 bits, en 50 y 66MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca una alianza con Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio que Microsoft e Intel tenían en sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC, que fue desarrollada por la alinza AIM. Los procesadores de esta familia son utilizados principalmente en computadores Macintosh de Apple Computer y su alto rendimiento se debe fuertemente a su arquitectura tipo RISC.

 
Es un procesador de tecnología RISC de 32 bits, en 50 y 66MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca una alianza con Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio que Microsoft e Intel tenían en sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC, que fue desarrollada por la alinza AIM. Los procesadores de esta familia son utilizados principalmente en computadores Macintosh de Apple Computer y su alto rendimiento se debe fuertemente a su arquitectura tipo RISC. El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos pipeline de datos de 32bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas, y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no sólo brindaban al usuario un más eficiente manejo de aplicaciones multimedia, como por ejemplo, la lectura de películas en DVD, sino que también se ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión de 200 MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.
  • 1994: EL PowerPC 620
En este año IBM y Motorola desarrollan el primer prototipo del procesador PowerPC de 64 bit[2], la implementación más avanzada de la arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su utilización en servidores, y especialmente optimizado para usarlo en configuraciones de cuatro y hasta ocho procesadores en servidores de aplicaciones de base de datos y vídeo. Este procesador incorpora siete millones de transistores y corre a 133 MHz. Es ofrecido como un puente de migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que renunciar a ejecutar aplicaciones de 32 bits.
Lanzado al mercado para el otoño de 1995, el procesador Pentium Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo era más lento que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. El procesador Pentium Pro estaba compuesto por alrededor de 5,5 millones de transistores.
Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora, transforma todos los comandos x86 (de la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior.
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 Mhz y con el juego de instrucciones MMX, que ya se han convertido en estándares.
Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD denominado 3DNow!
Un procesador de 7,5 millones de transistores, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, revisar y compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica; el enviar vídeo a través de las líneas normales del teléfono mediante Internet se convierte en algo cotidiano.
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de desempeño en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo y servidores que utilizan aplicaciones comerciales exigentes, como servicios de Internet, almacenamiento de datos corporativos, creaciones digitales y otros. Pueden configurarse sistemas basados en este procesador para integrar de cuatro o ocho procesadores trabajando en paralelo, también más allá de esa cantidad.


Continuando la estrategia, Intel, en el desarrollo de procesadores para los segmentos del mercado específicos, el procesador Celeron es el nombre que lleva la línea de de bajo costo de Intel. El objetivo fue poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para el añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un desempeño destacado para usos como juegos y el software educativo.
Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128 KiB (64 KiB para datos y 64 KiB para instrucciones). Además incluye 512 KiB de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento.
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.
El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el desempeño con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y desempeño en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del desempeño en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El procesador se integra con 9,5 millones de transistores, y se introdujo usando en él tecnología 250 nanómetros.
El procesador Pentium III Xeon amplia las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidores, y añade una actuación mejorada en las aplicaciones del comercio electrónico e informática comercial avanzada. Los procesadores incorporan mejoras que refuerzan el procesamiento multimedia, particularmente las aplicaciones de vídeo. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando el desempeño significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.
Este es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.
  • 2004: El Intel Pentium 4 (Prescott)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 KiB de caché L1 (el doble que los Northwood), prevención de ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.
  • 2004: El AMD Athlon 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits.El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del mismo y su tensión se reduce.

Intel lanzó ésta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en el la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU Pentium 4/D2. La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de cache L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.
Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo Cache L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continua la misma línea.
AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre a más de 3,2GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro del encapsulado
Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G.
Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento, mejorando el desempeño en 3D y todo lo que se relacione con operación en multimedia. Llegaron la primera semana de Enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12 unidades de ejecución
Ivy Bridge es la mejora de sandy bridge a 22 nm. Se estima su llegada para 2012 y promete una mejora de la GPU, así como procesadores de sexdécuple núcleo en gamas más altas y cuádruple núcleo en las más bajas, abandonándose los procesadores de núcleo doble.

AMD Fusion es el nombre clave para un diseño futuro de microprocesadores Turion, producto de la fusión entre AMD y ATI, combinando con la ejecución general del procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU (procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales del 2011)