xpanel, lxde, linux, fbpanel opensuse, linux, instalacion gtk3, gnome, ambienti grafici PS3, mandos, Play Station, Linux edubuntu, ubuntu, linux fedora, linux, discapacitados visuales fuduntu, fedora, ubuntu, linux, distribuciones inkscape, grafica, linux, editor tux, tuz, iconos, mascota, linux artistx, distro, linux, artistas, graficos

La versión 3.11 del Linux kernel ya esta oficialmente disponible en el repositorio oficial del Linux kernel. La nueva rama 3.11 aporta bastantes novedades como es habitual en un cambio de rama del kernel. En su mayoría y en términos generales la versión 3.11 se centra en la gestión y ahorro de energía. En la rama 3.10 se introdujeron muchos cambios en la arquitectura del kernel favoreciendo el soporte de nuevas tecnologías y hardware moderno. Los cambios mas notables fueron el cese de soporte para los procesadores 386 y el nuevo gestor de memoria que aprovecha mucho mejor los recursos del hardware.

kernel-icc

 

La nueva version  aporta ciertos elementos que también van a beneficiar mucho a las nuevas maquinas y que ademas estaban muy solicitadas por los usuarios de Linux. Empezando por el soporte mejorado para SSD (Discos de estado solido) y nuevos controladores para los adaptadores Wi-Fi con el nuevo estándar 802.11ac.

Vamos a profundizar en los cambios y novedades del Linux kernel 3.11:

 

Sistema de almacenamiento.

El kernel ahora integra una función de mapeado mucho mas avanzada que puede ir cacheando información en tiempo real, este nuevo modulo denominado drm-cache puede ser utilizado para crear configuración de SSD + HDD y utilizar el primero como cache del sistema. En sistemas como Windows es necesario instalar un controlador especifico del fabricante para configurar un sistema de este tipo, pero no es una solución limpia ni estable. Con este modulo el soporte esta integrado y es nativo desde el propio kernel por lo que el sistema operativo o distribución no dependerá de un modulo extra, si no que sera un estándar en todas las distribuciones que integren el kernel 3.11.

kernel-devices

 

Sistema de ficheros

Ahora el sistema de archivos Btrfs esta incluido por defecto y todas sus características soportadas también. Cualquier distribución con el kernel 3.11 podrá hacer uso nativo de este nuevo sistema de ficheros sin necesidad de añadir ningún modulo extra por los desarrolladores de la distribución. Ademas del soporte nativo, también se añade la posibilidad de realizar una configuración RAID 0 y 1 con el sistema Btrfs, teniendo en cuenta que es un sistema de archivos fuertemente destinado a servidores, las configuraciones RAID son muy comunes, en especial RAID 1.

 

Se corrigen varios errores encontrados relacionados con el sistema de archivos Ext4 que afectaban al rendimiento en entornos y situaciones muy concretas. Sobretodo en configuraciones con SSD sin el comando TRIM activado.

 

Se mejora la sincronización entre diferentes discos duros con los formatos Ext3 y Ext4, sobretodo bajo condiciones RAID. De esta forma si se produce un apagado repentino o fallo de hardware se minimizan las posibilidades de corrupción de datos.

 

Redes.

Los puertos que utilizan protocolos TCP y UDP ahora tienen soporte para el modulo so_reuseport que permiten múltiples conexiones y escuchas en el mismo puerto, esto es algo tremendamente útil en entornos de virtualización donde se crean numerosas direcciones IP virtuales.

 

Se corrigen varios errores relacionados con la subida y bajada de datos simultáneamente en algunos entornos concretos.

kernel-diagramma

Controladores.

Los cambios mas abundantes en la nueva rama 3.11 del Linux kernel son la incorporación de muchos controladores nuevos. Ahora ya esta soportada toda la linea de adaptadores Wi-Fi de Intel de forma nativa en el kernel por lo que aumentara el rendimiento de red si disponemos de una de estas tarjetas en nuestro portátil u ordenador de sobremesa. Ademas de las tarjetas Intel, también tenemos cambios en los controladores para tarjetas Atheros y Broadcom soportando nuevos modelos de chips y tarjetas recientes que han salido al mercado a finales de 2012 y principios de 2013.

 

También se soportan muchos dispositivos considerados exóticos o no estándares, como los ultraportatiles de Samsung Serie 3 con procesador ARM, muchos equipos Chromebook de Google y diversos smartphones y tablets.

 

Gráficos.

En el apartado de los gráficos tenemos cambios y novedades muy interesantes, sobretodo de cara a los que prefieren los controladores libres. Ahora esta soportada al completo la serie Radeon HD 7000 de AMD y HD 8000 de gama media como los modelos de la familia AMD Radeon HD 8500 y 8600. También están soportadas las tarjetas y procesador APU con chip equivalentes a las Radeon mencionadas de escritorio o portátil.

 

También se mejora el soporte para las tarjetas Nvidia GeForce desde la serie 6000 hasta la 9000 incluyendo sus equivalentes de la familia Quadro. Se mejora y completa el soporte para la serie 500 y se añade soporte experimental de la serie 69X y 700.

 

Arquitecturas de procesadores.

Ademas de la extensa lista de procesadores soportados en el Linux kernel, en esta nueva versión 3.9 se añade soporte para los procesadores ARC de Synopsys y algunas nuevas plataformas bajo la arquitectura ARM de 64-Bits.

 

Uno de los detalles donde mas se ha trabajado en el kernel 3.11 es en el código que comprime y descomprime el kernel en el formato LZO, mejorando notablemente el rendimiento en los equipos que tengan configurado el kernel para utilizar LZO en vez de Gzip. El rendimiento llega hasta duplicarse en algunos procesadores.

 

Virtualización.

Se ha mejorado el hypervisor KVM que poco a poco ya esta llegando a un estado de madurez considerable, no hace mucho tiempo que solo se consideraba un modulo experimental, ahora ya dispone de toda una infraestructura propia. El cambio mas importante en KVM es el soporte para trabajar con las arquitecturas ARM, en especial con las características de virtualización que incorporan los procesadores de la plataforma Cortex-A15.

 

Ademas de mejorar KVM otra característica muy solicitada en los entornos profesionales es la de desconexión de procesadores en caliente. En la versión 3.10 del kernel se introducía esta característica como pudimos ver en Leanuxeros, pero ahora también se extiende el soporte para los entornos virtualizados con KVM.

 

Gestión de energía.

Como pudimos ver hace unos días, se esta trabajando muy fuerte en mejorar la gestión de energía de la memoria RAM y chips similares. Con la nueva versión 3.11 se incorporan parte de estos avances. Todos los nuevos equipos con memoria DDR3 ya tienen algunas funciones avanzadas para ahorrar energía, algunas de ellas ya las explicamos en el articulo sobre la gestión de energía de la memoria RAM.

 

Uno de los aspectos donde también se ha trabajado mucho es en la suspensión e hibernación del equipo. Ahora la suspensión utilizara menos energía en los equipos modernos donde los componentes pueden funcionar con casi la mitad de energía que con equipos antiguos. Antes se utilizaba el mismo estándar para todos, de esta manera ahora se sacara el máximo partido al hardware sea cual sea la generación. Con el nuevo kernel 3.11 podemos tener un equipo portátil en suspensión algunas horas mas que con versiones anteriores del kernel.

 

Linux_kernel_diagram

Si te ha gustado el artículo inscribete al feed clicando en la imagen más abajo para tenerte siempre actualizado sobre los nuevos contenidos del blog:

1

Probablemente muchos sepan de qué se trata pero para los que no lo saben esta es una pequeña explicación:

El término Hosting Virtual se refiere a hacer funcionar más de un sitio web (tales como www.company1.com y www.company2.com) en una sola máquina. Los sitios web virtuales pueden estar "basados en direcciones IP", lo que significa que cada sitio web tiene una dirección IP diferente, o "basados en nombres diferentes", lo que significa que con una sola dirección IP están funcionando sitios web con diferentes nombres (de dominio). El hecho de que estén funcionando en la misma máquina física pasa completamente desapercibido para el usuario que visita esos sitios web.
Apache fue uno de los primeros servidores web en soportar hosting virtual basado en direcciones IP. Las versiones 1.1 y posteriores de Apache soportan hosting virtual (vhost) basado tanto en direcciones IP como basado en nombres. Ésta última variante de hosting virtual se llama algunas veces basada en host o hosting virtual no basado en IP.

virtual hosting
El alojamiento compartido, o hosting compartido, es una de las modalidades más utilizadas por las empresas dedicadas al negocio del alojamiento web. Dependiendo de los recursos disponibles, permite tener una cantidad variable de dominios y sitios web en una misma máquina. Es, generalmente, la forma más económica de alojamiento web.

 

Evidentemente cuando entramos a algún sitio en la red, con una determinada IP, esperamos estar conectados con un dominio específico pero, como lo dice anteriormente dado que"El hecho de que estén funcionando en la misma máquina física pasa completamente desapercibido para el usuario que visita esos sitios web" nos puede llevar a estar conectados con sitios con los que no queremos que eso suceda, fundamentalmente sitios que podrían espiar y recolectar información de nuestros equipos.

 

¿Qué es el Hosting virtual basado en nombres y por qué se usa(Más de un sitio web con una sola dirección IP)?

El hosting virtual basado en IPs usa la dirección IP de la conexión para determinar qué host virtual es el que tiene que servir. Por lo tanto, necesitará tener diferentes direcciones IP para cada host. Si usa hosting virtual basado en nombres, el servidor atiende al nombre de host que especifica el cliente en las cabeceras de HTTP. Usando esta técnica, una sola dirección IP puede ser compartida por muchos sitios web diferentes.
El hosting virtual basado en nombres es normalmente más sencillo, porque solo necesita configurar su servidor de DNS para que localice la dirección IP correcta y entonces configurar Apache para que reconozca los diferentes nombres de host. Usando hosting virtual basado en nombres también se reduce la demanda de direcciones IP, que empieza a ser un bien escaso. Por lo tanto, debe usar hosting virtual basado en nombres a no ser que haya alguna razón especial por la cual tenga que elegir usar hosting vitual basado en direcciones IP. Algunas de éstas razones pueden ser:
Algunos clientes antiguos no son compatibles con el hosting virtual basado en nombres. Para que el hosting virtual basado en nombres funcione, el cliente debe enviar la cabecera de Host HTTP. Esto es necesario para HTTP/1.1, y está implementado como extensión en casi todos los navegadores actuales. Si necesita dar soporte a clientes obsoletos y usar hosting virtual basado en nombres, al final de este documento se describe una técnica para que pueda hacerlo.
El hosting virtual basado en nombres no se puede usar junto con SSL por la naturaleza del protocolo SSL.
Algunos sistemas operativos y algunos elementos de red tienen implementadas técnicas de gestión de ancho de banda que no pueden diferenciar entre hosts a no ser que no estén en diferentes direcciones IP.


Veamos un ejemplo:

La IP 200.80.154.233 es utilizada por los siguientes dominios: lu4wg.com.ar blog.***.ar foros.archlinux-es.org portada.archlinux-es.org


Pregunta lógica: ¿Cuando me conecto a 200.80.154.233 con quien lo hago? lu4wg.com.ar, alternativagratis.com, dreamhost.com, el blog del buen señor hombrepac, con archlinux-es.org o podría ser que con varios ?

AppSet-Qt es un frontend de pacman que puede instalarse en ArchLinux desde AUR con yaourt.


En principio es una excelente aplicación que se parece mucho a Synaptic. Entre sus características se cuenta actualizar base de datos de repositorios, actualizar paquetes antiguos incluyendo los de AUR, instalar y desinstalar paquetes, elegir por repositorio o por grupo (sistema, multimedia, etc), instalar paquetes locales, ver la página web de cada paquete, sus características y aplicaciones instaladas para el paquete en nuestro sistema, etc. Además incluye un ícono en la systray que nos avisa cuando hay actualizaciones disponibles.


Hasta aquí todo bien, muy buena aplicación, pero esto pasa cuando la ejecuto:
Captura de etherape antes de ejecutar appset-qt

Captura de etherape ejecutando appset-qt


Captura del comando netstat -ant inmediatamente después de tomar la captura anterior

Bueno.... estoy conectado con alternativagratis.com, altervista.com, dreamhost y otras IP's de las que no me puse a buscar el dominio. La verdad es que yo no pedí esas conexiones y todas son a través de la IP 200.80.154.233, creo que es lógico que un gestor de paquetes de ArchLinux o su frontend se comunique con archlinux.org pero no con los restantes dominios. ¿Qué hacen en mi equipo? ¿Para qué se conectan conmigo?


Recientemente dije que me había sucedido que al detectar actividad anormal en la red al conectarme con una IP del servidor www.leaseweb.com, el mismo que usa Taringa , me encontré dentro de trade.nosis.com, dominio perteneciente a una base de datos personales de argentina donde se publicaba un perfil mío no autorizado. Aclaro que ante la denuncia realizada el perfil fue eliminado y esta es una copia del mail reicibido, donde un correo enviado a trade.nosis por trade.nosis me llega a mí:

Para quien le interese este es el link a la página: http://trade.nosis.com/es/leaseweb.com/35735/s y esta una captura de la información que se da sobre trade.nosis.com

Si te ha gustado el artículo inscribete al feed clicando en la imagen más abajo para tenerte siempre actualizado sobre los nuevos contenidos del blog:

2

Debian GNU/Hurd es la distribución del proyecto de Debian del sistema operativo GNU (con Hurd como su núcleo).

 

Debian GNU/Hurd ha estado en desarrollo durante muchos años, pero todavía no ha sido lanzado oficialmente.

 

Más del 60% del software1 de Debian GNU/Linux se ha portado para GNU/Hurd.

 

Sin embargo, Hurd en sí mismo permanece bajo desarrollo, y es muy pronto para usarlo en sistemas de producción. Los nuevos usuarios de Debian no podrían trabajar con Debian GNU/Hurd. El sistema operativo de Debian GNU/Hurd se puede probar usando un LiveCD.debian-hurd

 

La versión actual de Debian GNU/Hurd es L1. Funciona bajo la arquitectura i386 y AMD64.

 

No obstante, el desarrollo de Hurd continúa, y de cuando en cuando aparece alguna distribución en el que ir probando sus avances, es el caso que nos ocupa hoy.

 

Aunque hay que advertir que Hurd no está como para ocupar el sitio de Linux en entornos de producción, ni esta Debian GNU/Hurd 2013 es una versión oficial del sistema.

 

Con todo, Debian GNU/Hurd, disponible solo para arquitecturas i386, cuenta con más de 10.000 paquetes de software, lo que supone más del 75% del archivo de Debian.

 

Si quieres hacer una prueba, las imágenes de instalación están listas.

Si te ha gustado el artículo inscribete al feed clicando en la imagen más abajo para tenerte siempre actualizado sobre los nuevos contenidos del blog:

1
Administrar el uso del CPU en Linux puede ser un dolor de cabeza, en especial en un servidor Linux, sistema de CPU múltiples o sistema compartido. Sin embargo, existen varias herramientas que ayudan a lidiar con este problema.

La más conocidas sean tal vez Nagios y SAR, el programa de línea de comandos que muestra información básica sobre los procesos que se ejecutan en el equipo, pero hay tambièn tros programas que proporcionan información en distintos CPU y agregan datos de uso del CPU durante períodos prolongados.

Sin ánimo de ser exhaustivos presentamos una lista de las mejores herramientas para monitorear el rendimiento del CPU en Linux:
linux disco duro_thumb[2]
16. GKrellM.
GKrellM (GNU Monitores Krell o Metros GTK Krell) es un administrador de tareas basado en el conjunto de bibliotecas GTK+ que crea una pila simple de procesamiento de monitores del sistema.

GKrellM puede ser usado para monitorear el estado de la memoria principal, microprocesador(es), discos duros, interfaces de red, volumen del sonido, casillas de correo locales y remotas, entre otros. Existen plugins para múltiples tareas, por ejemplo: controlar el reproductor XMMS o el cliente de SETI@home. GKrellM ha logrado bastante popularidad entre los usuarios de los sistemas operativos Linux y *BSD.

La interfaz de usuario es stakable. es decir, se puede agregar como objetos de control muchas desea una encima de otra. Al igual que cualquier otras herramientas de escritorio de interfaz de usuario de control basados​​, se puede controlar la CPU, memoria, sistema de archivos, uso de la red, etc, pero el uso de plugins que puedas aplicaciones de monitoreo externos.

Un tutorial completo en esta página


17. w y uptime
Mientras controla el rendimiento del sistema, el comando w ayudará a saber quién ha iniciado sesión en el sistema.
$ w
09:35:06 up 21 days, 23:28, 2 users, load average: 0.00, 0.00, 0.00
USER TTY FROM LOGIN@ IDLE JCPU PCPU WHAT
root tty1 :0 24Oct11 21days 1:05 1:05 /usr/bin/Xorg :0 -nr -verbose
ramesh pts/0 192.168.1.10 Mon14 0.00s 15.55s 0.26s sshd: localuser 
john pts/0 192.168.1.11 Mon07 0.00s 19.05s 0.20s sshd: localuser 
jason pts/0 192.168.1.12 Mon07 0.00s 21.15s 0.16s sshd: localuser 

Por cada usuario que ha iniciado sesión, se muestra la siguiente información:

Nombre de usuario
tty info
El anfitrión remoto dirección IP
Tiempo de acceso del usuario
El tiempo que el usuario ha estado inactivo
JCPU y pCUP
El mandato del actual proceso el usuario está ejecutando
La línea 1 de la salida del comando w es similar a la salida del comando uptime. Se mostrará lo siguiente:
Tiempo corriente
Por cuánto tiempo el sistema ha estado funcionando
El número total de usuarios que están actualmente conectado al sistema
Carga promedio para los últimos minutos 1, 5 y 15
Si desea que sólo el tiempo de actividad de información, utilice el comando uptime.
$ uptime
09:35:02 up 106 days, 28 min, 2 users, load average: 0.08, 0.11, 0.05
Por favor, tenga en cuenta que tanto w comando uptime y obtiene la información de los directorios /var/run/utmp .
ku-xlarge

18. /proc
/ proc es un sistema de archivos virtual. Por ejemplo, si usted hace un ls-l / proc / stat, te darás cuenta de que tiene un tamaño de 0 bytes, pero si lo haces "cat / proc / stat", podrás ver algunos contenidos dentro del archivo.

El kernel de Linux tiens dos funciones primarias: controlar el acceso a los dispositivos físicos del ordenador y establecer cuándo y cómo los procesos interactuarán con estos dispositivos. El directorio /proc/ — también llamado el sistema de archivos proc — contiene una jerarquía de archivos especiales que representan el estado actual del kernel — permitiendo a las aplicaciones y usuarios mirar detenidamente en la vista del kernel del sistema.

Dentro del directorio /proc/, se puede encontrar una gran cantidad de información con detalles sobre el hardware del sistema y cualquier proceso que se esté ejecutando actualmente. Además, algunos de los archivos dentro del árbol de directorios /proc/ pueden ser manipulados por los usuarios y aplicaciones para comunicar al kernel cambios en la configuración.

Hacer un ls-l / proc, y verá gran cantidad de directorios con los números justos. Estos números representan los identificadores de proceso, los archivos dentro de este directorio numerado corresponde al proceso con el PID particular.

Los siguientes son los archivos importantes ubicados en cada directorio numerado (por cada proceso):

cmdline - línea de comandos del comando.
environ - Variables de entorno.
fd - Contiene los descriptores de archivo que está vinculado a los archivos correspondientes.
limits - Contiene la información acerca de los límites específicos al proceso.
moutns - Información relacionada
Los siguientes son los importantes vínculos dentro de cada directorio numerado (por cada proceso):
cwd - Enlace al directorio de trabajo actual del proceso.
exe - Enlace al ejecutable del proceso.
root - Enlace al directorio raíz del proceso.
proc debian

19. Vnstat
Vnstat es una utilidad de línea de comandos que muestra y registra el tráfico de red de las interfaces en los sistemas. Esto depende de las estadísticas de la red proporcionados por el kernel. Por lo tanto, vnstat no añade ninguna carga adicional a su sistema de seguimiento y registro del tráfico de red.

vnstat sin ningún argumento le dará un breve resumen con la siguiente información:

La última vez que el datbase vnStat ubicado en / var / lib / vnstat / modificado se

Desde que se comenzó a recopilar las estadísticas de una interfaz específica

Los datos estadísticos de la red (bytes transmitidos, bytes recibidos) durante los últimos dos meses, y la última dos días.
# vnstat
Database updated: Sat Oct 15 11:54:00 2011
eth0 since 10/01/11
rx: 12.89 MiB tx: 6.94 MiB total: 19.82 MiB
monthly
rx | tx | total | avg. rate
------------------------+-------------+-------------+---------------
Sep '11 12.90 MiB | 6.90 MiB | 19.81 MiB | 0.14 kbit/s
Oct '11 12.89 MiB | 6.94 MiB | 19.82 MiB | 0.15 kbit/s
------------------------+-------------+-------------+---------------
estimated 29 MiB | 14 MiB | 43 MiB |
daily
rx | tx | total | avg. rate
------------------------+-------------+-------------+---------------
yesterday 4.30 MiB | 2.42 MiB | 6.72 MiB | 0.64 kbit/s
today 2.03 MiB | 1.07 MiB | 3.10 MiB | 0.59 kbit/s
------------------------+-------------+-------------+---------------
estimated 4 MiB | 2 MiB | 6 MiB |
Use "vnstat-t" o "vnstat top10-" para visualizar todo el tiempo 10 días de tránsito.
$ vnstat --top10
eth0 / top 10
# day rx | tx | total | avg. rate
-----------------------------+-------------+-------------+---------------
1 10/12/11 4.30 MiB | 2.42 MiB | 6.72 MiB | 0.64 kbit/s
2 10/11/11 4.07 MiB | 2.17 MiB | 6.24 MiB | 0.59 kbit/s
3 10/10/11 2.48 MiB | 1.28 MiB | 3.76 MiB | 0.36 kbit/s
....
-----------------------------+-------------+-------------+---------------
Vnstat
20. Htop
Htop es un interactivo sistema de monitor de procesos espectador escrito para Linux. Está diseñado para sustituir el programa Unix superior . Se muestra una lista actualizada de los procesos que se ejecutan en un ordenador, normalmente ordenadas por la cantidad de uso de CPU. A diferencia de top , htop proporciona una lista completa de los procesos en ejecución, en lugar de los primeros procesos que consumen muchos recursos. Htop utiliza el color y proporciona información visual sobre el procesador , canje y la memoria de estado.

Los usuarios suelen desplegar htop en los casos en Unix top no proporciona información suficiente acerca de los procesos de sistemas, por ejemplo cuando se trata de encontrar pequeñas pérdidas de memoria en las aplicaciones. En comparación con top , que resultará más conveniente, cursor interfaz controlada para matar procesos.
Htop está escrito en el lenguaje de programación C con el ncurses biblioteca. Su nombre se deriva del nombre del autor original.

Es posible ejecutar htop en FreeBSD , ya que puede emular de Linux procfs .

Instalacion: apt-get install htop
htop-1.0-screenshot
21. Socket Estadísticas - SS
Ss es sinónimo de estadísticas de socket. Muestra información que son similares a comando netstat.

Para mostrar todos los sockets de escucha, hacer ss -l, como se muestra a continuación:

$ ss -l
Recv-Q Send-Q Local Addressort Peer Addressort
0 100 :::8009 :::*
0 128 :::sunrpc :::*
0 100 :::webcache :::*
0 128 :::ssh :::*
0 64 :::nrpe :::*
A continuación se muestra sólo la conexión establecida.
$ ss -o state established
Recv-Q Send-Q Local Addressort Peer Addressort
0 52 192.168.1.10:ssh 192.168.2.11:55969 timeron,414ms,0)
Las siguientes pantallas socket estadísticas de resumen. Esto muestra el número total de tomas desglosadas por tipo.
$ ss -s
Total: 688 (kernel 721)
TCP: 16 (estab 1, closed 0, orphaned 0, synrecv 0, timewait 0/0), ports 11
Transport Total IP IPv6
* 721 - -
RAW 0 0 0
UDP 13 10 3
TCP 16 7 9
INET 29 17 12
FRAG 0 0 0
ldap-ssl-operation

Si te ha gustado el artículo inscribete al feed clicando en la imagen más abajo para tenerte siempre actualizado sobre los nuevos contenidos del blog:
0

Administrar el uso del CPU en Linux puede ser un dolor de cabeza, en especial en un servidor Linux, sistema de CPU múltiples o sistema compartido. Sin embargo, existen varias herramientas que ayudan a lidiar con este problema.

 

La más conocidas sean tal vez Nagios y SAR, el programa de línea de comandos que muestra información básica sobre los procesos que se ejecutan en el equipo, pero hay tambièn tros programas que proporcionan información en distintos CPU y agregan datos de uso del CPU durante períodos prolongados.

 

Sin ánimo de ser exhaustivos presentamos una lista de las mejores herramientas para monitorear el rendimiento del CPU en Linux:

linux disco duro

11. Netstat
El comando Netstat muestra información relacionada con varias redes, tales como conexiones de red, tablas de encaminamiento, estadísticas de la interfaz, conexiones de disfraces, membresías multicast, etc .

 

La información que resulta del uso del comando incluye el protocolo en uso, las tablas de ruteo, las estadísticas de las interfaces y el estado de la conexión. Existen, además de la versión para línea de comandos, herramientas con interfaz gráfica (GUI) en casi todos los sistemas operativos desarrollados por terceros.

 

Los siguientes son algunos ejemplos de comandos netstat.

 

Listar todos los puertos (tanto escuchar y no escuchar) utilizando netstat-a, como se muestra a continuación.
# netstat -a | more
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address Foreign Address State
tcp 0 0 localhost:30037 *:* LISTEN
udp 0 0 *:bootpc *:*
Active UNIX domain sockets (servers and established)
Proto RefCnt Flags Type State I-Node Path
unix 2 [ ACC ] STREAM LISTENING 6135 /tmp/.X11-unix/X0
unix 2 [ ACC ] STREAM LISTENING 5140 /var/run/acpid.socket
Utilice el comando siguiente netstat para averiguar en qué puerto se está ejecutando un programa.
# netstat -ap | grep ssh
(Not all processes could be identified, non-owned process info
will not be shown, you would have to be root to see it all.)
tcp 1 0 dev-db:ssh 101.174.100.22:39213 CLOSE_WAIT -
tcp 1 0 dev-db:ssh 101.174.100.22:57643 CLOSE_WAIT -
Utilice el siguiente comando netstat para averiguar qué proceso está utilizando un puerto en particular.
# netstat -an | grep ':80'

Netstat


12. IPTraf

IPTraf es un programa informático basado en consola que proporciona estadísticas de red.

 

Funciona recolectando información de las conexiones TCP, como las estadísticas y la actividad de las interfaces, así como las caídas de tráfico TCP y UDP. Se encuentra disponible en sistemas operativos GNU/Linux.

 

Además de un menú de opciones a pantalla completa, IPTraf posee las siguientes características:

  • Monitor de tráfico IP que muestra información del tráfico de la red.
  • Estadísticas generales de las Interfaces.
  • Módulo de estadísticas de LAN que descubre hosts y muestra datos sobre su actividad.
  • Monitor TCP, UDP que muestra la cuenta de los paquetes de red para las conexiones de los puertos de aplicaciones.
  • Utiliza el "raw socket interface" que lleva el kernel permitiendo ser usado por un amplio rango de "tarjetas de red" .


Aca les dejo un link donde pueden descargar un buen manual para empezar a utilizar iptraf.

 

iptraf-iptm1


13. Strace.

Strace se utiliza para depurar y solucionar problemas de la ejecución de un ejecutable en entorno Linux. Se muestra el sistema de llamadas que utiliza el proceso, y las señales recibidas por el proceso.
Strace controla las llamadas al sistema y las señales de un programa específico. Es útil cuando no se dispone del código fuente y desea depurar la ejecución de un programa. strace le proporciona la secuencia de ejecución de un binario de principio a fin.

 

Traza llama un sistema específico en un ejecutable usando la opción-e

 

Por defecto, strace muestra todas las llamadas al sistema para el ejecutable suministrado. El siguiente ejemplo muestra la salida de strace para el comando ls de Linux.

 

$ strace ls
execve("/bin/ls", ["ls"], [/* 21 vars */]) = 0
brk(0) = 0x8c31000
access("/etc/ld.so.nohwcap", F_OK) = -1 ENOENT (No such file or directory)
mmap2(NULL, 8192, PROT_READ, MAP_PRIVATE|MAP_ANONYMOUS, -1, 0) = 0xb78c7000
access("/etc/ld.so.preload", R_OK) = -1 ENOENT (No such file or directory)
open("/etc/ld.so.cache", O_RDONLY) = 3
fstat64(3, {st_mode=S_IFREG|0644, st_size=65354, ...}) = 0
Para mostrar sólo una llamada al sistema específico, utilice la opción strace-e, como se muestra a continuación.
$ strace -e open ls
open("/etc/ld.so.cache", O_RDONLY) = 3
open("/lib/libselinux.so.1", O_RDONLY) = 3
open("/lib/librt.so.1", O_RDONLY) = 3
open("/lib/libacl.so.1", O_RDONLY) = 3
open("/lib/libc.so.6", O_RDONLY) = 3
open("/lib/libdl.so.2", O_RDONLY) = 3
open("/lib/libpthread.so.0", O_RDONLY) = 3
open("/lib/libattr.so.1", O_RDONLY) = 3
open("/proc/filesystems", O_RDONLY|O_LARGEFILE) = 3
open("/usr/lib/locale/locale-archive", O_RDONLY|O_LARGEFILE) = 3
open(".", O_RDONLY|O_NONBLOCK|O_LARGEFILE|O_DIRECTORY|O_CLOEXEC) = 3

strace


14. lsof
Lsof es sinónimo de ls archivos abiertos, en el que figurarán todos los archivos abiertos en el sistema. Los archivos abiertos incluyen la conexión de red, dispositivos y directorios.

 

lsof es software libre y su autor original es Victor A. Abell.

 

La salida del comando lsof tendrá las siguientes columnas:

COMMAND nombre del proceso.
PID proceso de identificación
USER Nombre de usuario
FD descriptor de fichero
TYPE tipo de nodo del archivo
DEVICE número de dispositivo
SIZE El tamaño del archivo
NODE Número de nodo
NAME Ruta completa del nombre del archivo.
Para ver todos los archivos abiertos del sistema, ejecute el comando lsof sin ningún parámetro, como se muestra a continuación.
# lsof | more
COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME
init 1 root cwd DIR 8,1 4096 2 /
init 1 root rtd DIR 8,1 4096 2 /
init 1 root txt REG 8,1 32684 983101 /sbin/init
init 1 root mem REG 8,1 106397 166798 /lib/ld-2.3.4.so
init 1 root mem REG 8,1 1454802 166799 /lib/tls/libc-2.3.4.so
init 1 root mem REG 8,1 53736 163964 /lib/libsepol.so.1
init 1 root mem REG 8,1 56328 166811 /lib/libselinux.so.1
init 1 root 10u FIFO 0,13 972 /dev/initctl
migration 2 root cwd DIR 8,1 4096 2 /
skipped..
Para ver los archivos abiertos por un usuario específico, utilice lsof-u opción para mostrar todos los archivos abiertos por un usuario específico.
# lsof -u ramesh
vi 7190 ramesh txt REG 8,1 474608 475196 /bin/vi
sshd 7163 ramesh 3u IPv6 15088263 TCP dev-db:ssh->abc-12-12-12-12.
Para una lista de usuarios de un determinado archivo, utilice lsof como se muestra a continuación. En este ejemplo, se muestra todos los usuarios que actualmente están usando vi.
# lsof /bin/vi
COMMAND PID USER FD TYPE DEVICE SIZE NODE NAME
vi 7258 root txt REG 8,1 474608 475196 /bin/vi
vi 7300 ramesh txt REG 8,1 474608 475196 /bin/vi

lsof


15. Ntop
Ntop es una herramienta que permite monitorizar en tiempo real una red. Es útil para controlar los usuarios y aplicaciones que están consumiendo recursos de red en un instante concreto y para ayudarnos a detectar malas configuraciones de algún equipo, (facilitando la tarea ya que. justo al nombre del equipo, aparece sale un banderín amarillo o rojo, dependiendo si es un error leve o grave), o a nivel de servicio.

 

También se puede acceder desde el navegador de ntop para obtener la información de tráfico y estado de la red.

 

Las siguientes son algunas de las características clave de los ntop:
Es un proyecto de software libre.
Su interfaz muy sencilla y via web.
Dispone de gran variedad de informes: globales de carga de red, de tráfico entre elementos, de sesiones activas de cada elemento, etc.
Es un software multiplataforma (Windows, Linux, BSD, Solaris y MacOSX) y muy fácil y rápido de instalar.
Para capturar los paquetes, la interfaz de red de la máquina que ejecute NTOP debe entrar en modo promiscuo, lo que implica que hay que disponer de permisos de administrador en dicha máquina.
NTOP usa por defecto el puerto 3000/TCP para el servidor web de la interfaz.
En Linux, NTOP está presente en las principales distribuciones y es fácilmente instalable desde el gestor de paquetes de software de la distribución.
Analiza protocolos TCP/UDP/ICMP.
Dentro de TCP/UDP es capaz de agruparlos por tipo de servicio que se este utilizando como FTP, HTTP, SSH, DNS, Telnet,SMTP/POP/IMAP, SNMP, NFS, X11.

ntop


Si te ha gustado el artículo inscribete al feed clicando en la imagen más abajo para tenerte siempre actualizado sobre los nuevos contenidos del blog:

1

1.- Como personalizar LXDE, entorno de escritorio ligero y rápido que mantiene una baja utilización de recursos

LXDE-logo.svgLXDE es un entorno de escritorio libre para Unix y otras plataformas POSIX, como Linux o BSD. El nombre corresponde a "Lightweight X11 Desktop Environment", que en español significa Entorno de escritorio X11 ligero.
LXDE es un proyecto que apunta a entregar un nuevo entorno de escritorio ligero y rápido. No está diseñado para ser tan complejo como KDE o GNOME, pero es bastante usable y ligero, y mantiene una baja utilización de recursos. A diferencia de otros ambientes de escritorio, los componentes no se integran firmemente. Al contrario, los componentes son independientes, y cada uno de ellos se puede utilizar independientemente con muy pocas dependencias.LXDE usa Openbox como gestor de ventanas1 predeterminado y apunta a ofrecer un escritorio ligero y rápido basado en componentes independientes que pueden ser utilizados en otros entornos.

 

2.- Cómo instalar y configurar XAMPP en Linux.

xampp-logo-trioEn esta oportunidad, vamos a ver como podemos de una manera relativamente fácíl  instalar y configurar nuestro propio servidor local bajo Linux con Xampp.
Para esta ocasión vamos a utilizar Linux Mint Katya, pero es lo mismo para Ubuntu, Debian, etc.
XAMPP es lo que se conoce como una plataforma de software libre, el cual permite correr un servidor Apache en prácticamente cualquier sistema operativo.
De ahí su nombre X (cualquier plataforma), A (apache), M (MySQL), P (PHP). P (Perl).
Si quieres saber más puedes visitar: XAMPP en la Wiki
La página oficial del proyecto es: Apache Friends
Y como en este caso veremos para la arquitectura Linux, la página para ello es: XAMPP para Linux.

 

3.- 13 temas GTK3 para instalar en Ubuntu.

gtk logoGTK+ es un conjunto de bibliotecas multiplataforma para desarrollar interfaces gráficas de usuario (GUI), principalmente para los entornos gráficos GNOME, XFCE y ROX aunque también se puede usar en el escritorio de Windows, Mac OS y otros.
Inicialmente fueron creadas para desarrollar el programa de edición de imagen GIMP, sin embargo actualmente se usan bastante por muchos otros programas en los sistemas GNU/Linux. Junto a Qt es una de las bibliotecas más populares para X Window System.
GTK+ se ha diseñado para permitir programar con lenguajes como C, C++, C#, Java, Ruby, Perl, PHP o Python. 
Licenciado bajo los términos de LGPL, GTK+ es software libre y es parte del proyecto GNU.
Ultima versión estable publicada: 3.4.4 (14/07/2012).

 

4.- Cómo crear un servidor en la nube con Owncloud para almacenar nuestros archivos.


Owncloud es un software open source bajo licencia AGPL que permite crear un servidor en la nube. la mayoría de nosotros utilizamos los servicios de alguno de ellos como : Dropbox, Google Drive, Mega, etc.
Basta con crear una cuenta en uno de estos servicios y ya disponemos de un espacio en el que almacenar nuestros archivos; En cualquier momento podemos acceder a ellos desde un ordenador que disponga de conexión a internet.
No obstante, el espacio disponible aunque gratuito es muy limitado y si lo usamos en serio nos resulta insuficiente. Cierto es que podemos contratar espacio adicional pero esto ya nos supone un coste económico. Además la confidencialidad de nuestros datos y de nuestros archivos está supeditada a la “honestidad” de las empresas que ofrecen este tipo de servicios.
Owncloud nos permite crear un servidor y conectarlo a internet, de una manera sencilla. Además seremos nosotros quienes lo administraremos controlando el acceso a la información almacenada.

 

5.- Consejos para elegir la mejor distribución Linux.

La idea es brindar información para aquellos usuarios que quieren ingresar al mundo gnu/linux, y además porque se hizo esta pregunta varias veces en la comunidad. 
Antes que nada vamos a empezar con una herramienta que en base a unas series de preguntas nos va a dar como resultado un listado o un ranking por así decirlo de las distros más acorde a nuestras respuestas.
Esté asistente se llama Zegeniestudios está hecho para ayudarle a decidir qué distribuciónn de Linux escoger.
Antes de empezar conteste las preguntas siguientes. 
http://www.zegeniestudios.net/ldc/index.php?lang=es
Tip: ¿Cómo elegir la mejor distribución Linux?
En Twitteling.com publicaron un artículo con 5 consejos para elegir la mejor distribución Linux para nosotros. Si bien esto depende de cada uno de los usuarios en particular y de las prestaciones del equipo en el que se quiere realizar la instalación, me pareció una buena idea acercarles este Tip.

 

6.- Cómo ver películas y series con XBox Media Center (XBMC) y la extensión (addons) NaviX.

xbmc_logoXBMC Media Center (también conocido como "XBox Media Center" es un centro multimedia de entretenimiento multiplataforma bajo la licencia GNU/GPL.
Inicialmente fue creado para la primera generación de la videoconsola Xbox. Sin embargo, el equipo de desarrollo de XBMC ha portado el producto para que pueda correr de manera nativa en Linux, Mac OS X (Leopard, Tiger y Apple TV), los sistemas operativos de Microsoft Windows y en la futura consola Ouya. También está disponible un Live CD autoarrancable, llamado XBMC buntu, con un sistema operativo embebido Ubuntu Linux, que además es instalable de forma completa en una unidad flash USB o en un disco duro.

 

7.- 10 hermosos temas GTK3 para Gnome.

gtk logo¿Usas Gnome 3? Instala entonces estos 10 hermosos temas GTK 3.
Ciertamente la cantidad de estilos visuales para esta nueva versión de Gnome es súper limitada, comparada con la cantidad que  hay para GTK 2, que es el que yo sigo usando con Ubuntu porque no me gusta Unity, pero supongo que poco a poco irán apareciendo más opciones.

Mientras tanto pueden usar algunos de estos 10 temas para Gnome 3, algunos que son simples ports de estilos que conocimos antes pero para que funcionen en esta nueva versión.

GTK+ o The GIMP Toolkit es un conjunto de bibliotecas multiplataforma para desarrollar interfaces gráficas de usuario (GUI), principalmente para los entornos gráficos GNOME, XFCE y ROX aunque también se puede usar en el escritorio de Windows, Mac OS y otros.

Inicialmente fueron creadas para desarrollar el programa de edición de imagen GIMP, sin embargo actualmente se usan bastante por muchos otros programas en los sistemas GNU/Linux. Junto a Qt es una de las bibliotecas más populares para X Window System.

 

8.- JW Player reproductor alternativo de vídeos, música, imágenes, etc para hacer embed de contenido multimedia de manera sencilla.

JW Player es un reproductor alternativo de vídeos, música, imágenes, etc con el que podremos hacer embed de contenido multimedia de manera sencilla.
Es un reproductor skinneable, permite plugins y además es OpenSource.
Paso 1: Instalando el script del reproductor:
En "Diseño | Edición HTML" deberás buscar la siguiente línea:

</head>

Sobre ésta pega el siguiente código:

 

9.-  Construye tu propia distribución basada en Ubuntu con Ubuntu Builder.

Ubuntu Builder Wizard1

Ubuntu Builder es una herramienta que te permite construir tu propia distribución basada en Ubuntu.
Acepta imágenes de 32 y 64 bits. Su uso es muy sencillo, tienes que comenzar eligiendo la fuemte desde donde comenzarás a crear tu distro. Tienes 2 alternativas, descargar la imágen de UBuntu Mini Remix o seleccionar una imagen previamente descargada.
Luego se abrirá un Terminal y extraerá esa imagen habilitando las opciones de configuración que son variadas.
Puedes elegir el entorno de escritorio y/o gestor de ventanas: GNOME, KDE, XFCE, LXDE,OpenBox, FluxBox, Blackbox, IceWM.
Agregar o eliminar fuentes de sources.list
Instalar nuevos paquetes deb
Editar el slideshow de Ubiquity
etc

 

10.- Como personalizar KDE, entorno de escritorio contemporáneo para estaciones de trabajo Unix.

KDE es un proyecto de software libre para la creación de un entorno de escritorio e infraestructura de desarrollo para diversos sistemas operativos como GNU/Linux, Mac OS X, Windows, etc.
De acuerdo con su página web, «KDE es un entorno de escritorio contemporáneo para estaciones de trabajo Unix. KDE llena la necesidad de un escritorio amigable para estaciones de trabajo Unix, similar a los escritorios de Mac OS X o Windows».
Las aplicaciones KDE están traducidas a aproximadamente 75 idiomas3 y están construidas con los principios de facilidad de uso y de accesibilidad moderna en mente. Las aplicaciones de KDE 4 funcionan de forma completamente nativa en GNU/Linux, BSD, Solaris, Windows y Mac OS X.
La «K», originariamente, representaba la palabra «Kool»,5 pero su significado fue abandonado más tarde.

KDE se basa en el principio de la personalización; todos los componentes de KDE pueden ser configurados en mayor o menor medida por el usuario. Las opciones más comunes son accesibles en su mayoría desde menús y diálogos de configuración. Los usuarios avanzados pueden optar por editar los archivos de configuración manualmente, obteniendo en algunos casos un mayor control sobre el comportamiento del sistema.

Si te ha gustado el artículo inscribete al feed clicando en la imagen más abajo para tenerte siempre actualizado sobre los nuevos contenidos del blog:

0

Muchos usuarios de sistemas basados en Unix ignoran la colorida historia que se esconde detrás de su propio sistema operativo. Las distribuciones actuales de Linux, Mac OS y los sistemas operativos de muchos dispositivos móviles se originaron de los deseos de dos programadores de AT&T, que querían jugar al Space Travel (Viaje espacial) sin gastarse 75 dólares por partida. Hoy te contamos cómo Ken Thompson, Dennis Ritchie y Rudd Canaday iniciaron el desarrollo de un sistema operativo que 40 años más tarde goza de muy buena salud.

 

A pesar de que muchos usuarios han descubierto las bondades de Unix gracias a las más recientes distribuciones de Linux, como Ubuntu, lo cierto es que este sistema operativo tiene casi cuatro décadas de desarrollo. La historia de Unix comienza a finales de los años 1960, cuando el Instituto Tecnológico de Massachusetts (MIT), los Laboratorios Bell de AT&T y la General Electric trabajaban en la creación de un sistema operativo de carácter experimental llamado Multics (por Multiplexed Information and Computing Service). Multics corría en un “mainframe” (una clase de ordenadores muy comunes en la época que constaba de una unidad central que “atendía” a varias terminales “bobas”) de General Electric modelo GE-645.

unix historia 

Estas empresas buscaban desarrollar “un gran sistema operativo interactivo” que incorporase sólidas políticas de seguridad. Hasta ese momento, la seguridad de los datos la proporcionaba la escasa disponibilidad de los ordenadores, de los que había una pequeña cantidad y solo personal autorizado podía tener acceso a ellos. Pero la baja de precios y la popularización de los sistemas informáticos hacían indispensable integrar en el mismo corazón del SO las herramientas destinadas a proteger la información. El proyecto fue relativamente exitoso, e incluso existieron algunas “versiones para producción” de Multics, pero su pobre rendimiento hizo que AT&T decidiera desvincularse del proyecto.

 

Las leyendas.

 

Ken Thompson.

 

unix historia1 

Kenneth Lane Thompson, conocido como Ken Thompson, es un pionero en las ciencias de computación, nació en Nueva Orlans el 4 de febrero de 1943. En 1965 se diploma en Ciencias y al año siguiente consigue el Master de Ingeniería Electrica y Ciencias de la Computación en la Universidad de California.

 

Sobre los años 60 Ken Thompson trabajaba junto Dennis Ritchie con el Sistema Operativo Multics a la vez que creaba el lenguaje Bon, también estaba escribiendo el código de un juego Space Travel en la máquina (GE-635) pero resultaba muy lento, tanto que cada partida costaba alrededor de 75 dólares, esto le llevo a reprogramarlo en ensamblador. La experiencia de adquirida con la creación de este juego y el proyecto en el trabajaba, Multics, fueron la clave para que comenzara la creación de un nuevo sistema operativo bautizado como UNICS, posteriormente cambiado por UNIX. Thompson también es el creador del lenguaje B , el antecesor a C, creado por Dennis Ritchie.

 

Otro hecho importante en medio de muchos es la creación el 2 de septiembre de 1992, junto a Rob Pike el código de caracteres UTF-8.

 

Thompson termina retirándose de los laboratorios Bell para trabajar en Entrisphere hasta el año 2006. Actualmente trabaja para Google.

 

Dennis Ritchie.


unix historia2 

Dennis MacAlistair Ritchie … ¿les suena? … seguramente a muchos si. Este físico nacido en 1941 tubo mucho que ver en como trabajamos actualmente con un ordenador. Dennis Ritchie colaboró en el desarrollo del sistema operativo Unix y fue el creador del lenguaje de programación C.

 

En el año 1967 comenzó su andadura en Laboratorios Bell donde trabajó en Multics, BCOL, ALTRAN y el lenguaje de programación B.  También se le conoce como uno de los padres de la computación junto a Ken Thompson con quien recogieron premios como NEC C&C en 1979, el Premio Turing de la ACM en 1983 y la Medalla Nacional de Tecnología de los Estados Unidos en 1998.
El lenguaje C es uno de los lenguajes más utilizados actualmente y -para mi- el más utilizado en la historia de la computación ya sea en forma directa o a través de sus derivados.

 

El nacimiento de un gigante .

 

Ken Thompson, uno de los programadores del equipo de los laboratorios Bell de AT&T, siguió escribiendo software para el ordenador GE-635. Entre otros programas, escribió un juego llamado Space Travel (Viaje espacial). Sin embargo, descubrió que el juego era lento en la máquina de General Electric y resultaba realmente caro, algo así como 75 dólares de EE.UU. por cada partida. Así fue como, junto a su amigo Dennis Ritchie, escribió nuevamente el programa, pero esta vez utilizando el lenguaje ensamblador de un ordenador más popular (y barato) llamado DEC PDP-7.

unix historia3 
Thompson y Ritchie descubrieron que trabajar juntos era divertido. En 1969, y siempre dentro de los laboratorios Bell, armaron un equipo programadores -entre los que se encontraba Rudd Canaday- con la idea de desarrollar un sistema operativos que cumpliese con las premisas originales del proyecto Multics, pero que corriese en un DEC PDP-7. Comenzaron a trabajar en el sistema de archivos y en el núcleo del sistema operativo, que sería capaz de ejecutar procesos en simultáneo (multitarea). Además, crearon un pequeño intérprete de órdenes (o de comandos) y un reducido grupo de programas accesorios. El proyecto fue bautizado UNICS (por Uniplexed Information and Computing System) y, en principio, solo podía “atender” a dos usuarios a la vez. El mismo Kernighan fue el que eligió el nombre del nuevo sistema operativo, pero culpa de un juego de palabras UNICS se convertía un sistema Multics castrado (pues “eunuchs”, en inglés, es un homófono de UNICS). Entonces, se decidió cambiarle el nombre a UNIX, denominación  que se mantiene hasta la actualidad.

 

UNIX rápidamente llamó la atención de los niveles gerenciales de los laboratorios Bell, que de pronto tenían entre sus manos un sólido sistema operativo. La empresa no había gastado un solo dólar en el desarrollo de UNIX, pero cuando el Grupo de Investigación en Ciencias de la Computación decidió utilizarlo en una máquina más potente que el PDP-7, Thompson y Ritchie consiguieron el apoyo económico de AT&T. Comenzaron a reescribir el software para que funcionase en un ordenador PDP-11/20 y, por primera vez, en 1970, UNIX corrió en esa plataforma. Los programadores habían incluido entre las herramientas del paquete un programa capaz de dar formato a textos -llamado runoff- y un primitivo editor de texto. Todo el trabajo se realizó utilizando el lenguaje ensamblador de la PDP-11/20, y los laboratorios Bell utilizaron este primitivo “sistema de procesamiento de texto” para procesar las solicitudes de patentes que recibían. En poco tiempo runoff recibió importantes mejoras y su nombre cambió a troff, considerado el primer programa de edición electrónica capaz de realizar composición tipográfica. El 3 de noviembre de 1971, Thomson y Ritchie publicaron el primer manual de programación de UNIX, el “UNIX Programmer's Manual”.

unix historia4

 
"Arbol genealógico" de Unix.

En 1972, Ken Thompson y Dennis Ritchie crearon el lenguaje de programación C. Si querían que UNIX fuese portado a otras plataformas, necesitaban un lenguaje de alto nivel pero que se mantuviese cerca del ensamblador. Su idea era que el código generado por el compilador de C fuese lo suficientemente rápido como para utilizarlo en la creación de sistemas operativos. Así, en 1972 se tomó la decisión de escribir nuevamente UNIX, pero esta vez en el lenguaje de programación C. Esto permitiría que fuese modificado para funcionar en otros ordenadores y que diferentes versiones pudiesen ser desarrolladas por otros programadores. AT&T puso UNIX a disposición de las universidades, empresas privadas y del gobierno de los Estados Unidos, a través de licencias. El Departamento de Computación de la Universidad de California, con sede en Berkeley recibió una de estas licencias, y en 1975 desarrolló y publicó su propio “clon” de UNIX, conocido como Berkeley Software Distribution (BSD), que más tarde se convertiría en un fuerte competidor del UNIX de AT&T. Para tener una idea de los alcances de UNIX en esa época, basta con una frase de junio de 1972 atribuida a Dennis Ritchie y Ken Thompson: “...el número de instalaciones Unix ha alcanzado el número de 10, y esperamos que aumente...”.

unix historia5
ULTRIX .

AT&T creó una división comercial, denominada Unix Systems Laboratories, para que se encargase de la explotación comercial del sistema operativo. La aparición de nuevos ordenadores y el impulso recibido de parte de nuevos programadores -que utilizaban C para introducir mejoras- hicieron que fuesen liberadas diferentes versiones de UNIX. En 1975, el SO alcanzó la versión 6, que incluía “pipes” (tuberías). Esto permitió dar una orientación modular al proyecto, consiguiendo aumentar aún más la velocidad de desarrollo. Se estima que en 1978, unos 600 ordenadores alrededor del mundo ya corrían alguna versión de UNIX. La versión 7, última basada en el UNIX original que tuvo una gran distribución, entró en circulación en 1979 y sirvió de base para la creación de Plan 9, un nuevo sistema operativo portable y distribuido, diseñado por los Laboratorios Bell para ser el sucesor de UNIX en tareas de investigación.


unix historia6 

La empresa AT&T desarrolló y vendió UNIX System III (basado en la versión 7) a partir de 1981.La proliferación de versiones daba lugar a confusiones, así que la empresa decidió combinar todos los desarrollos propios con los de distintas universidades y empresas en 1983, dando origen al Unix System V Release 1. Esta versión introdujo características como el editor Vi y la biblioteca curses, desarrolladas por Berkeley Software Distribution. La división Unix Systems Laboratories de AT&T fue adquirida por Novell dos años más tarde, y se hizo cargo de la demanda por infracción de los derechos de copyright, revelación de secretos y violación de marca de mercado existente entre Unix Systems Laboratories y BSD. Los accionistas de Novell tuvieron que pasar el mal trago de descubrir grandes porciones del código de BSD habían sido copiadas ilegalmente en UNIX System V, y fueron contra demandados. Como la propiedad intelectual de Novell se reducía a unos pocos ficheros fuente, todo acabó en un acuerdo extrajudicial cuyos términos permanecieron bajo secreto a petición de Novell.

unix historia7
HP ofrecia sistemas como este, capaces de correr UNIX por menos de 5000 dólares.

De forma paralela al UNIX “oficial”, desde mediados de los ochenta, Richard Stallman, del Instituto Tecnológico de Massachussets, trabajaba en lo que más tarde se conocería como “software libre”. Stallman creo un sistema similar a UNIX con intenciones de cederlo gratuitamente, con el nombre de GNU (Gnu's Not Unix. GNU no es Unix). En esos meses, un joven estudiante de ciencias de la computación finlandés llamado Linus Torvalds comenzaba el desarrollo del núcleo de un sistema operativo para ordenadores basados en la arquitectura “Intel x86”, que reproducía muchas de las funciones existentes en UNIX. El embrionario sistema operativo fue lanzado en forma de código abierto en 1991, con el nombre de Linux. El año siguiente ese núcleo Linux fue combinado con los programas desarrollados por el Proyecto GNU, dando como resultado el Sistema Operativo GNU/Linux

El resto es historia: lo que comenzó casi como un pasatiempo de dos geniales programadores se convirtió en un potente, seguro y flexible sistema operativos, capaz de funcionar en un teléfono móvil, un ordenador personal o un cluster de ordenadores. Incluso el aplaudido sistema operativo Mac OS es UNIX completo y aprobado por The Open Group. Se diferencia en que posee una interfaz gráfica propietaria (Aqua), desarrollada en Objective-C en lugar de C o C++. A pesar de tener casi 40 años sobre sus espaldas, UNIX está más vigente que nunca.

unix
Computacion

Si te ha gustado el artículo inscribete al feed clicando en la imagen más abajo para tenerte siempre actualizado sobre los nuevos contenidos del blog:

0

Archivo