martes, 27 de octubre de 2015

Caracteristicas generales de un disco SAS dispositivos que admirte




El disco duro SAS es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información a altas velocidades por medio de pequeños electroimanes (también llamadas cabezas de lectura y escritura), sobre un disco recubierto de limadura magnética. Los discos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo está totalmente libre de aire y de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido. Será el sucesor del estándar de discos duros con interfaz paralela SCSI.
El disco duro SAS compite directamente contra los discos duros SATA II, y busca reemplazar el estándar de discos duros SCSI.

                                                

CARACTERÍSTICAS


SAS: proviene de las siglas de ("Serial Attached SCSI --Small Computer System Interface--"), SCSI adjunto serial. Es un estándar para dispositivos de alta velocidad que incluyen discos duros entre sus especificaciones, a diferencia del estándar SCSI que es paralelo.


Disco duro SAS tiene dentro de sus características lo siguiente: Marca HP®, 600 GB(3), 2.5 Inch(2), Hot Plug(4), 6G(5), SAS, 10K RPM(1).

RPM SAS:  1.- Este dato indica que el su eje de giro permite hasta 10,000 vueltas por minuto.


Pulgadas SAS: 2.- Este dato indica que el tamaño de disco es de 2.5 pulgadas (2.5")


Capacidades de almacenamiento SAS: 3.-Este dato indica puede almacenar hasta 18 GigaBytes de datos.


Tipo de Plug: 4.-Este dato indica que se puede instalar y desinstalar sin necesidad de apagar el equipo.


Velocidad de transferencia:5.-Este dato indica la velocidad de transferencia de datos, en este caso 6 Gigabits/segundo.

VELOCIDADES


La primera versión apareció a finales de 2003: SAS 300, que conseguía un ancho de banda de 3Gb/s, lo que aumentaba ligeramente la velocidad de su predecesor , el SCSI Ultra 320MB/s (2,560 Gb/s). La siguiente evolución, SAS 600, consigue una velocidad de hasta 6Gb/s 
Como SCSI, SAS se diseñó pensando en sistemas más intensivos de lectura/escritura y que requieran tiempos de acceso muy rápidos y lecturas o escrituras aleatorias. Los discos giran a 15000 rpm frente a las 7200 de los discos SATA.

      
SATA ISATA IISATA III
Frecuencia1500 MHz3000 MHz6000 MHz
Bits/clock111
Codificación 8b10b80%80%80%
bits/Byte888
Velocidad real150 MB/s300 MB/s600 MB/s


DISPOSITIVOS QUE ADMITE

  1. SATA Express* es compatible con SATA 3, con SATA 2 y Con SATA 1.
  2. SATA 3 es compatible con SATA 2 y con SATA 1.
  3. SATA 2 es compatible con SATA 1.
  4. SATA 1 es compatible con SATA 1.
  5. Sata 1 es compatible con SATA Express*
*Obviamente si conectamos un SSD fabricado para Sata Express en un conector SATA 1 convencional, no podremos aprovechar su velocidad y quedaremos limitados a 150MB/s y al revés, si conectamos un SSD Serial AATA 1 con un cable SATA Express a un conector SATA Express tendremos TERRIBLE capacidad de ancho de banda para un SSD (o HD) que a duras penas puede transferir 150MB/s, algo así como andar en una autopista Alemana con un Citroen 2CV.

Usb 3.0

USB 3.0 es la segunda revisión importante de la Universal Serial Bus (USB) estándar para la conectividad informática.

USB 3.0 tiene una velocidad de transmisión de hasta 5 Gbit/s, que es 10 veces más rápido que USB 2.0 (480 Mbit/s). USB 3.0 reduce significativamente el tiempo requerido para la transmisión de datos, reduce el consumo de energía y es compatible con USB 2.0.

Patillaje

Standard-A

Una entrada USB 3.0 Standard-A acepta conectores de USB 3.0 Standard-A y USB 2.0 Standard-A. También es posible conectar USB 3.0 Standard-A a un puerto USB 2.0 Standard-A.
Este conector tiene la misma configuración física que su predecesor pero tiene 5 pines más. Los pines VBUS, D-, D+, y GND son los necesarios para la comunicación en USB 2.0. Los pines adicionales de USB 3.0 son dos pares diferenciales y una tierra (GND_DRAIN). Estos dos pares diferenciales son para transferencia de datos SuperSpeed. El pin GND_DRAIN sirve para controlar EMI y mantener la integridad en la señal.
Como pueden coexistir los puertos USB 2.0 y USB 3.0 en un mismo ordenador y las entradas son iguales, estos últimos se suelen diferenciar porque tienen una franja azul.


Conectores


Existen varios tipos de USB 3.0,al igual que pasaba con los USB 2.0:
Ejemplo de como serian los conectores para el USB 3.0 B Plug Pinout:


 
 
PinSeñalDescripción
1      VBUS                                   POWER
2        D-                   Pares diferenciales de USB 2.0
3        D+
4     GND                  Tierra para el retorno de potencia
5StdB_SSTX-                  Par diferencial emisor SuperSpeed
6StdB_SSTX+
7GND_DRAIN   Tierra para el retorno de señalGround for signal return
8StdB_SSRX-                Par diferencial receptor SuperSpeed
9StdB_SSRX+
10     DPWR              Potencia proporcionada por el dispositivo
11     DGND                    Tierra para el retorno de DPWR
Shell     Shield                             Conector de metal


Tensión

En cuanto al aspecto electrico deben ser alimentados con 5 voltios de corriente continua y un voltaje amximos de 5 voltios,con una corriente maxima de hasta 1000 mA dependiendo de la versión.


Testeo de pista de arranque de placa base

En muchas ocasiones los ordenadores presentan problemas de alimentación como:
  • Bloqueos.
  • Reinicios.
  • Apagados.
Lógicamente si los voltajes que aparecen en BIOS y/o los programas de monitorización de Rpms, Temperaturas, Voltajes,… son anómalos (Difieren del 5% de tolerancia) habría que llevar a cabo una comprobación más exaustiva con un tester (Testeador).
  • Para solucionar este problema están los tester (Testeadores):
Polímetro/Multímetro
Polímetro/Multímetro
En un principio con Polímetro/Multimétro (Puede ser analógico o digital) que pueda “leer” voltajes de corriente continua (DC) de hasta 12v o más sería suficiente.
Al testear la fuente de alimentación de un ordenador de clase el polimetro nos indicaba que la fuente estaba bien por lo que nos indicaba continuidad.
A continuación mostramos la forma de testearlo:
  1. Tenemos que localizar el cable que sale del botón de encendido/apagado del ordenador.

  2. Para continuar, debemos localizar el pin al que se conecta el cable verde que se encuentra en la placa base.



  3. Mediante la utilización de un polimetro  en su posición de probador de continuidad verificamos si la pista esta en correcto funcionamiento.
  4. Si en la pantalla nos sale un 1 (uno), significa que no hay continuidad y que esta cortada por algún lado, de lo contrario, si marca algo esta todo correcto
Aqui dejo un video donde se ve con mas claridad:






jueves, 22 de octubre de 2015

Factores de forma


Definición


El factor de forma (form factor) es el tamaño físico estandarizado de una placa base para un ordenador personal.

También este factor define:
Forma de placa madre: cuadrada o rectangular.

Ancho y largo de la placa madre.

Posición de los anclajes( ubicación de tornillos).
Áreas donde se sitúan los componentes (ranuras de expansión, conectores y puertos).

Forma física del conector de la fuente de alimentación y las conexiones eléctricas.

Origen

Nació de la necesidad de crear un estándar para que los componentes de un ordenador sean intercambiables entre si. indiferentemente del fabricante. El primero fue XT.

El XT es un factor de forma creado por IBM para su primer ordenador personal de uso doméstico. La especificación era abierta, por lo tanto múltiples desarrolladores se basaron en esta convirtiéndose así en un estándar de factor de forma.


Algunos de los factores de forma poco utilizados son:


Factor de forma DTX

Fue introducido por ADM en 2007. De tamaño reducido, ha sido desarrollado para HTPC. Es compatible con las cajas ATX y también se encuentra en una versión aun más reducida, llamada Mini-Dtx. Dispone de uno o dos slots de expansión que suelen ser un puerto PCI-express y un PCI. Además de su tamaño reducido, su precio es también bajo, debido a los pocos elementos que incorpora.





Factor de forma EBX


Tamaño 8" x 5´7" (203 mm x 146 mm)

Desarrollado por Ampro y Motorola, fue pensado para integrar todos los componentes principales de un ordenador en la placa base. Destinado principalmente a sistemas básicos que requieren poca potencia.








Factor de forma Mini- ITX


Tamaño 6´6" x 6´6" (170mm x 170mm)

Mini-ITX es un formato de placa base totalmente desarrollado por VIA technologies. Aunque es un formato de origen propietario, sus especificaciones son abiertas De hecho, otros fabricantes tienen productos en este formato.Tiene aproximadamente el tamaño de un CD, pero no es la pequeña del mercado dado que VIA definió la nano-ITX y Pico- ITX.

Es compatible con ATX, por lo que se pueden conectar componentes diseñados para cualquier otro tipo de PC. El dato positivo es que solo disponen de una ranura de expansión PCI y una ranura para un módulo de memoria.








Factor de forma 
XT:

Se basa en la placa IBM PC original. En su primera versión, la placa de este equipo, inspiradora de todas las demás, disponía de 5 conectores ISA de 8 bits, un conector de teclado, otro para casete, y zócalos para el coprocesador aritmético y para las ampliaciones de memoria DRAM. Estos chips de memoria eran de 16 pines (8 para cada lado)

En el modelo de 1983 se suprimió el conector para casete y se aumentó a 8 el número de conectores ISA de 8 bits. Fue utilizado principalmente por la industria de “clónicos”.







Comparativa en el tamaño de placas ATX


lunes, 19 de octubre de 2015

Tipos de Socket



El Intel QuickPath Interconnect ("QuickPath", "QPI")1 2 3 es una conexión punto a punto con el procesador desarrollado por Intel para competir con HyperTransport.
El QuickPath reporta velocidades de 4,8 a 6,4 GT/S por segundo por dirección. El ancho de banda va de 12,0 a 16,0 GB/s por dirección, o 24,0 a 32,0 GB/s por conexión

Turbo Boost

¿En qué consiste?

Turbo Boost es una tecnología desarrollada e implantada por Intel en sus procesadores. La idea es bastante simple pero no deja de ser muy efectiva. Los micros actuales tienen varios núcleos, es decir son capaces de trabajar con varias aplicaciones a la vez. Esta función hace que el procesador sea capaz de incrementar su frecuencia de funcionamiento, de forma automática, en determinadas circunstancias.

¿Como funciona?

Imaginemos un micro con 6 núcleos de los cuales el sistema sólo este usando 4 de ellos. Esta tecnología detecta estos casos y lo que hace es acelerar aquellos que se estén usando, siempre controlando el límite máximo de temperatura. De esta forma la respuesta mejora.



¿Y AMD...?

AMD tiene su propia implementación del sistema denominada  Turbo Core. Y funciona del mismo modo que el Turbo boost.

Comparativa procesadores


El microprocesador es el circuito integrado central y más complejo de un sistema informático.
Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas ylógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.
Tenemos dos grandes empresas que dominan el mercado de los procesadores, que son Intel y AMD.




Acerca de los números de procesador Intel®



martes, 13 de octubre de 2015

Doble Núcleo e HyperThreading


Doble núcleo

Un procesador de doble núcleo es una CPU (Central Processor Unit) con dos núcleos diferentes en una sola base, cada uno con su propio caché. Con ella se consigue mejorar el rendimiento del sistema, eliminando los cuellos de botella que se podrí­an llegar a producir en las arquitecturas tradicionales y permite aumentar el rendimiento del procesador sin consumir más energía ni generar un exceso de calor.
Los dos grandes fabricantes de procesadores, son, evidentemente, los pioneros en el desarrollo y diseño de estos procesadores de doble núcleo. Estos dos fabricantes son Intel y AMD.




HyperThreading

 

Es una marca registrada de la empresa Intel para denominar su implementaciónde la tecnología Multithreading Simultáneo.

El HyperThreading permite a los programas preparados para ejecutar múltiples hilos (multi-threaded) procesarlos en paralelo dentro de un único procesador ,incrementando el uso de las unidades de ejecución del procesador.

 

Ventajas 
Intel proclama que la mejora es de 30% , pero se estima que suele variar entre 15 y 30 % dependerá el sistema operativo, de aplicación a usar y de como este programada.
Para poder realizar el HT aumenta un poco el consumo de recursos en torno al 5%


Desventajas o problemas                                                                       Debido a diversos estudios de ARM sobre intel, los procesadores con HT consumían hasta un 42% de energia, incluso intel retiro esta tencologia durante un tiempo.
 

miércoles, 7 de octubre de 2015

Kernel

El kernel, también llamado núcleo del sistema operativo, es aquella parte de un sistema operativo que interactúa de forma directa con el hardware de una máquina. Entre las funciones principales del kernel se encuentran:
La gestión de memoria.
La administración del sistema de archivos.
La administración de servicios de entrada/salida.
La asignación de recursos entre los usuarios. La manipulación del hardware se realiza por medio de controladores de dispositivo, que conocen la forma de comunicarse directamente con el hardware de la máquina.

El software por su parte puede comunicarse con el kernel por medio de llamadas al sistema, las cuales le indican al kernel que realice tareas como abrir y escribir un archivo, ejecutar un programa, finalizar un proceso u obtener la fecha y hora del sistema.


Kernel Panic
Un kernel panic es un acción tomada por un sistema operativo al detectar un error fatal interno del que no puede recuperarse.
El término es empleado especialmente en sistemas Unix; para Windows su equivalente coloquial es pantallazo azul.


Causas: Intentos del sistema operativo para leer una dirección de memoria inválida o no permitida son una fuente común de kernel panics. El error también puede ocurrir como resultado de un fallo de hardware.

Es probable también que se presente si falta algún módulo que deba ir pegado al kernel dependiendo del hardware con el que se cuente.

Un kernel panic puede ser producto de una explotación de una vulnerabilidad en algún módulo del núcleo de forma malintencionada, logrando corromper la integridad del sistema.

Kernel Panic Linux



Pantallazo azul Windows



Kernel Panic Mac OS

 
 Kernel codex 
* STOP 0x0000000A (IRQL_NOT_LESS_OR_EQUAL)


CAUSA: Drivers incompatibles o mal hechos

EXPLICACIÓN: Este error indica que un proceso en modo kernel o un driver ha intentado acceder a una dirección de memoria para la que no tiene permisos. Se suele producir porque en el código hay un puntero que hace referencia a una parte de la memoria que no corresponde al proceso. Esto provoca una violación de la separación de procesos en Windows y una parada para evitar que se sobrescriba código o datos de otro proceso.

* STOP 0x0000001E (KMODE_EXCEPTION_NOT_HANDLED)


CAUSA: Drivers incompatibles o mal hechos, software con fallos graves, hardware defectuoso.

EXPLICACIÓN: El manejador de excepciones del kernel ha detectado que un proceso ha intentando ejecutar una instrucción inválida.

* STOP 0x00000024 (NTFS_FILE_SYSTEM)


CAUSA: Disco duro dañado, cables en mal estado, sistema de ficheros dañado

EXPLICACIÓN: Windows no puede acceder a la partición NTFS donde están sus ficheros


Distribuciones LINUX

Una distribución Linux (coloquialmente llamada distro) es una distribucion de software basada en el núcleo de Linux que incluye determinados paquetes de software para satisfacer las necesidades de un grupo específico de usuarios, dando así origen a ediciones domésticas, empresariales y para servidores. Por lo general están compuestas, total o mayoritariamente, de software libre, aunque a menudo incorporan aplicaciones o controladores propietarios.

Ubuntu





Ubuntu es una distribución Linux que ofrece un sistema operativo predominantemente enfocado a ordenadores de escritorio aunque también proporciona soporte para servidores.
Basada en Debian GNU/Linux, Ubuntu concentra su objetivo en la facilidad de uso, la libertad en la restricción de uso, los lanzamientos regulares (cada 6 meses) y la facilidad en la instalación. Ubuntu es patrocinado por Canonical Ltd., una empresa privada fundada y financiada por el empresario sudafricano Mark Shuttleworth.


Creador: Mark Shuttleworth y Canonical LTD
Año de lanzamiento: 8 de julio de 2004


Open SUSE




OpenSUSE es el nombre de la distribución y proyecto libre auspiciado por Novell para el desarrollo y mantenimiento de un sistema operativo basado en linux. Antes de la aparición de openSUSE, el desarrollo de esta distribución, anteriormente conocida como SUSE Linux, se realizaba a puerta cerrada. Ahora, el proceso está abierto a cualquier programador y usuario que desee contribuir al desarrollo de openSUSE.

Creador: Novell
Año de lanzamiento: 2005



Fedora





Fedora, antes Fedora Core (tcc Fedora Linux), es una distribución GNU/Linux desarrollada por la comunidad Fedora y promovida por la compañía estadounidense Red Hat.
El objetivo del proyecto Fedora es conseguir un sistema operativo de propósito general y basado exclusivamente en software libre con el apoyo de la comunidad Linux. Los ingenieros de Red Hat continúan participando en la construcción y desarrollo de este proyecto e invitan y fomentan la participación de miembros de la comunidad Linux.

Creador: Fedora Y Red Hat
Año de lanzamiento: 22 de septiembre de 2003


Mandriva




Mandriva Linux (antes Mandrakelinux y Mandrake Linux) es una distribución Linux aparecida en julio de 1998 propiedad de Mandriva, enfocada a principiantes o usuarios medios.
Se distribuye mediante la licencia GNU GPL, y es posible descargar su distribución en formato ISO, sus asistentes o sus repositorios.
La primera edición se basó en Red Hat Linux (versión 5.1) y escogió el entorno gráfico de KDE (versión 1.0).

Creador: Mandriva
Año de lanzamiento: Julio de 1998

Slackware 

 


Slackware Linux es una distribución de Linux. Es una de las más antiguas distribuciones y la más antigua de las activamente mantenidas en la actualidad. En su última versión, la 12.0, Slackware incluye la versión del kernel Linux 2.6.21.5 y Glibc 2.5. Contiene un programa de instalación fácil de utilizar, extensa documentación, y un sistema de gestión de paquetes basado en menús.

Creador: Patrick Volkerding
Año de lanzamiento: Abril de 1993


Debian






Debian o Proyecto Debian (en inglés Debian Project) es una comunidad conformada por desarrolladores y usuarios, que pretende crear y mantener un sistema operativo GNU basado en software libre precompilado y empaquetado, en un formato sencillo en múltiples arquitecturas de computador y en varios núcleos.


Creador:
Organización del proyecto

El Contrato Social de Debian

Las Directrices de software libre de Debian

La Constitución de Debian


El proyecto Debian es una organización voluntaria.
Año de lanzamiento: Agosto de 1993


Gentoo





Gentoo Linux es una distribución GNU/Linux orientada a usuarios con cierta experiencia en este sistema operativo, fue fundada por Daniel Robbins, basada en la inactiva distribución llamada Enoch Linux. Ya para el año 2002, ésta última pasa a denominarse Gentoo Linux.

Creador: Daniel Robbins
Año de lanzamiento: 31 de marzo de 2002