miércoles, 16 de mayo de 2012

TALLER






1.Conceptos basicos sobre informatica:
Para la Real Academia de La Lengua, la informática, es conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores (computadores). La palabra proviene del francés, ya que ellos crearon el concepto informatique, o sea, informática. La conjunción entre las palabras información y automatización.
La informática se ha ido desarrollando, para que el hombre, pueda realizar tareas triviales, de manera ordenada, rápida y eficientemente. Por lo mismo, la informática se ha ido desarrollando desde hace muchísimos años. Incluso podemos llegar a los chinos, en el año 3000AC, cuando crearon el ábaco, para realizar diversos cálculos de manera eficiente y lo más rápidamente posible. Ya en el siglo XVII, se lograron desarrollar las primeras máquinas posibles de realizar cálculos de manera mecánica. 


2. Definicion de ordenador o computador:
es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadasorganizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o de entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento






3.Origen, historia, y evolucion de los computadores:
La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo del ordenador o computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la   fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.
2. La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de   la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna.
La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno.
Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro
.








4.Generaciones del computador (1°2°3°4°5°6°7°8):

PRIMERA GENERACIÓN (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos.
Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una   compañía privada y construyendo UNIVAC I, que el Comité del censo utilizó para evaluar el censo de   1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el contrato para el Censo de 1950.











SEGUNDA GENERACIÓN (1959-1964) Transistor Compatibilidad Limitada
El invento del transistor hizo posible una nueva Generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguía siendo una porción significativa del presupuesto de una Compañía. Las computadoras de la segunda generación también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.





Microprocesador , Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)








En 1971, intelCorporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción de silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.







QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)
Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizajefundamentados en sistemas expertos e inteligencia artificial.







5. SINTESIS DE LOS DISTINTOS PERIODOS DE LAS COMPUTADORAS:






6.Estructurafisica&logica de una computadora:
Arquitectura del Hardware
Si vemos el computador como una estructura de hardware, notaremos que esta constituido por dispositivos, que clasificaremos según la función que desempeñen. De acuerdo a esta clasificación tendremos:
  • Dispositivos de Entrada.
  • Dispositivos de Salida.
  • Dispositivos de Comunicación.
  • Dispositivos de Almacenamiento.
  • Dispositivos de Cómputo.
Dispositivos de Entrada
Son todos aquellos que permiten la entrada de datos a un computador. Entre estos encontramos: el teclado, el ratón, el escáner, el micrófono, la cámara web, el capturador de huella y firma digitales o lapicesopticos, etc.
  • Computerkeyboardwithdanish layout.jpg





Dispositivos de Salida
Son todos aquellos que permiten mostrar la información procesada por el computador. Entre estos encontramos: la pantalla, la impresora, los altavoces, etc.










Dispositivos de Almacenamiento
Son todos aquellos que permiten almacenar los datos en el computador. Ente estos encontramos: el disquete, el disco duro (interno y externo), el CD, el DVD, la memoria USB, etc.






Dispositivos de Comunicación
Son todos aquellos que permiten la comunicación entre computadores. Entre estos encontramos: el módem, la tarjeta de red y el enrutador (router).







Dispositivos de Cómputo
Son todos aquellos que realizan las operaciones y controlan las demás partes del computador. Entre estos encontramos: la Unidad Central de Procesamiento, la memoria y el bus de datos.








Unidad Central de Procesamiento (CPU)
Unidad central de proceso o UCP (mejor conocida por sus siglas en inglés, CPU), es un circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y del proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones y toma decisiones lógicas (determinando si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo un disco duro), los dispositivos de entrada (por ejemplo un teclado o un mouse) y los dispositivos de salida (por ejemplo un monitor o una impresora).








7. EVOLUCIÓN FUTURA DE LOS ORDENADORES: Una tendencia constante en el desarrollo de los ordenadores es la microminiaturización, iniciativa que tiende a comprimir más elementos de circuitos en un espacio de chip cada vez más pequeño. Además, los investigadores intentan agilizar el funcionamiento de los circuitos mediante el uso de la superconductividad, un fenómeno de disminución de la resistencia eléctrica que se observa cuando se enfrían los objetos a temperaturas muy bajas.
Las redes informáticas se han vuelto cada vez más importantes en el desarrollo de la tecnología de computadoras. Las redes son grupos de computadoras interconectados mediante sistemas de comunicación. La red pública Internet es un ejemplo de red informática planetaria. Las redes permiten que las computadoras conectadas intercambien rápidamente información y, en algunos casos, compartan una carga de trabajo, con lo que muchas computadoras pueden cooperar en la realización de una tarea. Se están desarrollando nuevas tecnologías de equipo físico y soporte lógico que acelerarán los dos procesos mencionados.
Otra tendencia en el desarrollo de computadoras es el esfuerzo para crear computadoras de quinta generación, capaces de resolver problemas complejos en formas que pudieran llegar a considerarse creativas. Una vía que se está explorando activamente es el ordenador de proceso paralelo, que emplea muchos chips para realizar varias tareas diferentes al mismo tiempo. El proceso paralelo podría llegar a reproducir hasta cierto punto las complejas funciones de realimentación, aproximación y evaluación que caracterizan al pensamiento humano. Otra forma de proceso paralelo que se está investigando es el uso de computadoras moleculares. En estas computadoras, los símbolos lógicos se expresan por unidades químicas de ADN en vez de por el flujo de electrones habitual en las computadoras corrientes. Las computadoras moleculares podrían llegar a resolver problemas complicados mucho más rápidamente que las actuales supercomputadoras y consumir mucha menos energía.













8.computacion:cuantica: definicion, origen y cronologia
La computación cuántica es un paradigma de computación distinto al de la computación clásica. Se basa en el uso de qubits en lugar de bits, y da lugar a nuevas puertas lógicas que hacen posibles nuevos algoritmos. Una misma tarea puede tener diferente complejidad en computación clásica y en computación cuántica, lo que ha dado lugar a una gran expectación, ya que algunos problemas intratables pasan a ser tratables. Mientras un computador clásico equivale a una máquina de Turing,1 un computador cuántico equivale a una máquina de Turing cuántica.




Origen de la computación cuántica
A medida que evoluciona la tecnología, aumenta la escala de integración y caben más transistores en el mismo espacio; así se fabrican microchips cada vez más pequeños, y es que, cuanto más pequeño es, mayor velocidad de proceso alcanza el chip. Sin embargo, no podemos hacer los chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación cuántica en escena









9.Microprocesadores:definicion,origen y cronologia



El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un sistema informático; a modo de ilustración, se le suele asociar por analogía como el «cerebro» de un computador. Es un circuito integrado constituido por millones de componentes electrónicos. Constituye la unidad central de procesamiento (CPU) de un PC catalogado como microcomputador.

Es el encargado de ejecutar los programas; desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumarrestarmultiplicardividir, las lógicas binarias y accesos a memoria.
Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante(conocida antiguamente como «co-procesador matemático»).
El microprocesador está conectado, generalmente, mediante un zócalo específico a la placa base de la computadora. Normalmente, para su correcto y estable funcionamiento, se le adosa un sistema de refrigeración, que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que fuerzan la expulsión del calor absorbido por el disipador; entre éste último y la cápsula del microprocesador suele colocarse pasta térmica para mejorar la conductividad térmica. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.


10. futuro de los microprocesadores:
El último paso conocido ha sido la implementación de la nueva arquitectura de 0.25 micras, que viene a sustituir de forma rotunda la empleada hasta el momento, de 0.35 micras en los últimos modelos de  procesador. Esto va a significar varias cosas en un futuro no muy lejano, para empezar la velocidad se incrementará una medida del 33% con respecto a la generación del anterior. es decir, el mismo procesador usando esta nueva tecnología puede ir un 33% más rápido que el anterior. Para los que no podamos hacer una idea de este tamaño de tecnología, el valor de 0.25 micras es unas 400 veces más pequeño que un cabello de cualquier persona. Y este tamaño es el que tienen transistores que componen el procesador. El transistor, como muchos sabemos, permite el paso de la corriente eléctrica, de modo que en función de en qué transistores haya corriente, el ordenador realiza las cosas (esto es una simplificación de la realidad pero se ajusta a ella). Dicha corriente eléctrica circula entre dos puntos de modo que cuanto menor sea esta distancia, más cantidad de veces podrá pasar, pues el tiempo es menor. Aunque estamos hablando de millonésimas de segundo, tener en cuenta que un procesador está trabajando continuamente, de modo que ese tiempo que parece insignificante cuando es sumado a lo largo de las miles de millones de instrucciones que realizar, nos puede dar una cantidad de tiempo importante. De modo que la tecnología que se utilice puede dar resultados totalmente distintos, incluso utilizando el mismo procesador. en un futuro cercano además de contar con la arquitectura de 0.25 micras podremos disfrutar de una de 0.07, para el año 2011, lo que supondrá la introducción en el procesador de mil millones de transistores, alcanzando una velocidad de reloj cercana a los diez mil MHz, es decir, diez GHz.
Han pasado más de 25 años desde que Intel diseñara el primer microprocesador, que actualmente cuenta con más del 90% del mercado. Un tiempo en el que todo ha cambiado enormemente, y en el hemos visto pasar varias generaciones de maquinas que nos han entretenido y ayudado en el trabajo diario. Dicen que es natural en el ser humano querer mirar constantemente hacia el futuro, buscando información de hacia donde vamos, en lugar de en donde hemos estado. Por ello no podemos menos que asombrarnos de las previsiones que los científicos barajan para dentro de unos 15 años. Según el Dr. Albert Yu, vicepresidente de Intel y responsable del desarrollo de los procesadores desde el año 1984, para el año 2011, utilizaremos procesadores cuyo reloj ira a una velocidad de 10 GHz (10,000 MHz) contendrán mil millones de transistores y será capaz de procesar cerca de 100 mil millones de instrucciones por segundo. Un futuro prometedor, permitirá realizar tareas nunca antes pensadas.


11. EVOLUCIÓN DEL MICROPROCESADOR (INTEL-AMD)


INTEL:
a evolución delmicroprocesador se inició el año 1971 cuando la empresaIntel logró fabricar su primer microprocesador como un circuito integrado, iniciándose así una revolución en la tecnología de la computadoras.
En esa época se necesitaba desarrollar un circuito específico para cada aplicación y cada tarea. Con un microprocesador se podía utilizar el mismo circuito para diferentes aplicaciones.
Lo único que se tiene que hacer es cambiar el programa que manejará este microprocesador




AMD:
  • AMD se une a GLOBALFOUNDRIES para abrir camino instalando una fábrica de semiconductores de última generación en el estado de Nueva York, completando así la visión de muchos años de AMD,  trayendo a los Estados Unidos una fábrica con diseño avanzado.
  • AMD completa la entrega de 500 millones de procesadores x86 desde su fundación en 1969.





12.DISCO DURO : DEFINICIÓN,ESTRUCTURA FÍSICA, LÓGICA CARACTERÍSTICAS  Y NUEVA GENERACIÓN
DEFINICIÓN :
En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datosno volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.1 Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.1
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PC y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hoy día son IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente en servidores).

ESTRUCTURA FÍSICA:

Dentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal(dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos..

ESTRUCTURA LÓGICA:
Master Boot Record (MBR). Lo crea el comando de partición FDISK (que forma parte de los sistemas  
operativos DOS, Windows 95,98,ME). Es la primera grabación que se hace en un disco cuando se particiona. 
Ocupa el sector 1 de la pista 0 de la cara 0 del disco. El sistema operativo inserta aquí su programa de carga 
que el BIOS lee ( y coloca en la memoria ) para activar el PC. 
..
FAT de la PRIMERA PARTICION. Después de realizar la Partición (interpretese como delimitación de áreas 
en el disco), se formatea cada partición. El sistema operativo crea entonces una Tabla de localización de 
archivos o FAT = File Allocation Table (un indice de ubicaciones de datos en el disco) utilizando las 
estructuras FAT 16, FAT 32 o NTFS (New Technology File System utilizado por Windows 2000 y XP).   
Adjunta se crea una SEGUNDA FAT (invisible ) de respaldo contra daños de la titular. 
.. 
..
PARTICION PRIMARIA. (Toda el área en verde). Su creación se hace a través del programa de  
particiones FDISK. Su tamaño puede ser de un 100% del área del disco (en cuyo caso no queda lugar para 
crear mas divisiones lógicas), o un porcentaje del disco. Dos particiones son usuales y convenientes en PC 
domésticos y de oficina (ver mas detalles sobre esto en la explicación de la segunda partición). 
La partición PRIMARIA es imprescindible y única. Siempre es identificada por el BIOS con la letra C.  
Debe señalarse como la PARTICION ACTIVA de lo contrario Windows no podrá arrancar por el disco duro. El 
sistema operativo por default la señala como la partición de arranque y graba en ella su estructura.  
El sistema de distribución de archivos del disco (para grabar y leer datos) se define en el acto de 
particionar: FAT 16 (solo puede controlar discos menores de 2 GB), FAT 32 o NTFS para discos grandes (10, 
40, 80.. gigabytes) y con PC modernos dotados con procesador veloz y amplia memoria Ram. Después, en 
el formato se crea la estructura de archivos propiamente dicha ( carpetas y sub carpetas ). De estos 
sistemas, NTFS es el mas sólido y estable gracias a su especial administración de la MEMORIA GENERAL y 
de su REGISTRO.

CARACTERÍSTICAS:
Las características que se deben tener en cuenta en un disco duro son:
§  Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista), Tiempo de lectura/escritura y la Latencia media (situarse en el sector).
§  Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
§  Tiempo de lectura/escritura: Tiempo medio que tarda el disco en leer o escribir nueva información: Depende de la cantidad de información que se quiere leer o escribir, el tamaño de bloque, el número de cabezales, el tiempo por vuelta y la cantidad de sectores por pista.
§  Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
§  Velocidad de rotación: Revoluciones por minuto de los platos. A mayor velocidad de rotación, menor latencia media.
§  Tasa de transferencia: Velocidad a la que puede transferir la información a la computadora una vez la aguja está situada en la pista y sector correctos. Puede servelocidad sostenida o de pico.
Otras características son:
§  Caché de pista: Es una memoria tipo Flash dentro del disco duro.
§  Interfaz: Medio de comunicación entre el disco duro y la computadora. Puede ser IDE/ATASCSISATAUSBFirewireSerial Attached SCSI
§  Landz: Zona sobre las que aparcan las cabezas una vez se apaga la computadora.

NUEVA GENERACION:
Los SSD o, quizá más conocidos como, discos de estado sólido son una tecnología que está en pleno desarrollo. Cada día se vuelven un poco más estándares y les van quitando el lugar a los discos rígidos de siempre. Intel acaba de lanzar al mercado una nueva versión, con mayor poder de almacenamiento y un 30% más económico.


13:HARWARE, SOFTWARE Y SU DIFERENCIA

HADWARE:
Hardware (pronunciación AFI: [ˈhɑːdˌwɛə] ó [ˈhɑɹdˌwɛɚ]) corresponde a todas las partes tangibles de un sistema informático; sus componentes son: eléctricos, electrónicos, electromecánicos y mecánicos.1 Son cables, gabinetes o cajas, periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».2 El término, aunque es lo más común, no solamente se aplica a una computadora tal como se la conoce, también, por ejemplo, un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia poseen hardware (y software).3 4









SOFTWARE:

Se conoce como software1 al equipamiento lógico o soporte lógico de un sistema informático, comprende el conjunto de los componentes lógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de texto, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz con el usuario.

DIFERENCIA:
Seriamente te puede decir:
1
-Hardware: es Fisico (es tangible)
-Software: no es Fisico (no se puede ver)
2
-Hardware: no esta en un software
-Software: si esta en un hardware
3
-Hardware: la informacion viaja lo mas rapido posible, y la velocidad no depende del software, mas bien depende de otro hardware (buses)
-Software: la rapidez de la informacion depende de la velocidad del hardware (frecuecias de reloj) y depende tambien de cuantos software mas esten funcionando.
4
-Hardware: tiene vida util
-Software: no tiene vida util (nunca se hecha a perder)
5
-Hardware: no se bajan por internet
-Software: se pueden bajar por internet
6
-Hardware: ellos son la maquina (su unico lenguaje es el 1 y el 0)
-Software: estan hechos de lenguaje de maquina (cadenas de unos y de ceros que el hardware los interpreta)
7
-Hardware: las funciones logicas estan en micro-chipts dentro del procesador
-Software: las funciones logicas estan en assembler (lenguaje de maquina)
nota: la 7 es valida si el hardware esta en modo CISC



14.SISTEMAS OPERATIVOS Y BASE DE DATOS:
Un sistema operativo (SO) es un programa o conjunto de programas que en un sistema informático gestiona los recursos de hardwarey provee servicios a los programas de aplicación, y se ejecuta en modo privilegiado respecto de los restantes.1
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador web y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Esta identidad entre kernel y sistema operativo es solo cierta si el núcleo esmonolítico. Otro ejemplo para comprender esta diferencia se encuentra en la plataforma Amiga, donde el entorno gráfico de usuario se distribuía por separado, de modo que, también podía reemplazarse por otro, como era el caso de directory Opus o incluso manejarlo arrancando con una línea de comandos y el sistema gráfico. De este modo, al arrancar un Amiga, comenzaba a funcionar con el propio sistema operativo que llevaba incluido en una ROM, por lo que era cuestión del usuario decidir si necesitaba un entorno gráfico para manejar el sistema operativo o simplemente otra aplicación. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, usado en las llamadas distribuciones Linux, ya que al estar también basadas en Unix, proporcionan un sistema de funcionamiento similar. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.3 (Véase AmigaOSbeOS o MacOS como los pioneros4 de dicha modernización, cuando los Amiga fueron bautizados con el sobrenombre de Video Toasters5 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores e interfaces intuitivos para diseño en 3D.



BASE DE DATOS: 
na base de datos o banco de datos (en ocasiones abreviada con la sigla BD o con la abreviatura b. d.) es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos.
Existen programas denominados sistemas gestores de bases de datos, abreviado SGBD, que permiten almacenar y posteriormente acceder a los datos de forma rápida y estructurada. Las propiedades de estos SGBD, así como su utilización y administración, se estudian dentro del ámbito de la informática.
Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas. También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la información experimental.
Aunque las bases de datos pueden contener muchos tipos de datos, algunos de ellos se encuentran protegidos por las leyes de varios países. Por ejemplo, en España los datos personales se encuentran protegidos por la Ley Orgánica de Protección de Datos de Carácter Personal (LOPD).











15. DEFINICIÓN DE LENGUAJES DE PROGRAMACIÓN Y SUS TIPOS DE BAJO Y ALTO NIVEL:
Un lenguaje de programación es un idioma artificial diseñado para expresar procesos que pueden ser llevadas a cabo por máquinas como las computadoras. Pueden usarse para crear programas que controlen el comportamiento físico y lógico de una máquina, para expresar algoritmos con precisión, o como modo de comunicación humana.1 Está formado por un conjunto de símbolos y reglas sintácticas y semánticas que definen su estructura y el significado de sus elementos y expresiones. Al proceso por el cual se escribe, se pruebase depurase compila y se mantiene el código fuente de un programa informático se le llama programación.
También la palabra programación se define como el proceso de creación de un programa de computadora, mediante la aplicación de procedimientos lógicos, a través de los siguientes pasos:
§  El desarrollo lógico del programa para resolver un problema en particular.
§  Escritura de la lógica del programa empleando un lenguaje de programación específico (codificación del programa).
§  Ensamblaje o compilación del programa hasta convertirlo en lenguaje de máquina.
§  Prueba y depuración del programa.
§  Desarrollo de la documentación








16.LENGUAJES EXPERTOS,COMPILADO,  INTERPRETADO, DECLARATIVOS Y DESCRIPCIÓN DE MAQUINA:

LENGUAJES EXPERTO:
Lenguaje experto, en informática, un lenguaje informático o sistema de programación de aplicaciones diseñado para crear programas, bases de datos y materiales para enseñanza asistida por ordenador o computadora.

COMPILADO:Un lenguaje compilado es término un tanto impreciso para referirse a un lenguaje de programación que típicamente se implementa mediante un compilador. Esto implica que una vez escrito el programa, éste se traduce a partir de su código fuente por medio de un compilador en un archivo ejecutable para una determinada plataforma (por ejemploSolaris para SparcWindows NT para Intel, etc.).
Los lenguajes compilados son lenguajes de alto nivel en los que las instrucciones se traducen del lenguaje utilizado a código máquina para una ejecución rápida. Por el contrario un lenguaje interpretado es aquel en el que las instrucciones se traducen o interpretan una a una siendo típicamente unas 10 veces más lentos que los programas compilados.
Es teóricamente posible escribir un compilador o un intérprete para cualquier lenguaje, sin embargo en algunos lenguajes una u otra implementación es más sencilla porque se diseñaron con una implementación en particular en mente.

INTERPRETADO:Un lenguaje interpretado es un lenguaje de programación que está diseñado para ser ejecutado por medio de un intérprete, en contraste con los lenguajes compilados. Teóricamente, cualquier lenguaje puede ser compilado o ser interpretado, así que esta designación es aplicada puramente debido a la práctica de implementación común y no a alguna característica subyacente de un lenguaje en particular. Sin embargo, hay lenguajes que son diseñados para ser intrínsecamente interpretativos, por lo tanto uncompilador causará una carencia de la eficacia. Muchos autores rechazan la clasificación de lenguajes de programación entre interpretados y compilados, considerando que el modo de ejecución (por medio de intérprete o de compilador) del programa escrito en el lenguaje es independiente del propio lenguaje. A ciertos lenguajes interpretados también se les conoce como lenguajes de script.

DECLARATIVOS:
§  F-Prolog (Programación Lógica Difusa)
§  Curry (Programación Lógico-Funcional)
§  SQL

DESCRIPCIÓN DE MAQUINA: 
La palanca:
es una maquina simple formada por una barra rígida que se apoya en un punto sobre el cual se aplica una fuerza en un extremo, para obtener una fuerza mayor en el otro. Las palancas sirven para elevar o desplazar objetos, romper objetos muy duros, impulsar embarcaciones, etc. Algunos ejemplos de palancas son alicates, tijeras, tenazas, carretillas, pinzas.

x.x.x.Elementos de una palanca x.x.x.x


El brazo de potencia:
es la distancia que hay entre el punto donde se aplica la fuerza motriz (Fp) y el punto de apoyo (A).
El brazo de resistencia:
es la distancia que hay entre la fuerza resistente (Fr) y el punto de apoyo (A).
Clases de palancas:
de acuerdo con la posición de la fuerza motriz (Fp) y de la fuerza resistente (Fr) con respecto al punto de apoyo (A), se consideran tres clases:

**Palancas de primer género o ínter-móviles: es aquella en la que el punto de apoyo (A) esta situado entre la potencia o fuerza motriz (Fp) y la fuerza de resistencia (Fr).
**Palancas de segundo género o ínter-resistentes:es aquella en la que la resistencia o peso (Fr) del cuerpo esta ubicado entre el punto de apoyo (A) y el punto de aplicación (Fp) de la fuerza.
**Palancas de tercer género o Inter-potentes: son las que tienen la fuerza resistente (Fr) entre el punto de apoyo (A) y la fuerza motriz (Fp).
**La ley de equilibrio de la palanca: esta ley establece que una palanca esta en equilibrio cuando la fuerza motriz o potencia, multiplicada por el brazo de la potencia, es igual a la fuerza de resistente, multiplicada por el brazo de la resistencia. En otras palabras:
Fp x bp = Fr x br







17. DEFINICIÓN DE LÓGICA PROGRAMACIÓN Y LÓGICA ALGORITMO :
LÓGICA PROGRAMACIÓN 
La programación lógica es un tipo de paradigmas de programación dentro del paradigma de programación declarativa. El resto de los subparadigmas de programación dentro de la programación declarativa son: programación funcionalprogramación con restricciones, programas DSL (de dominio específico) e híbridos. La programación lógica gira en torno al concepto de predicado, o relación entre elementos. La programación funcional se basa en el concepto de función (que no es más que una evolución de los predicados), de corte más matemático.

LÓGICA ALGORITMO :
1.3  Definición de Algoritmo La palabra algoritmo se deriva de la traducción al latín de la palabra árabe alkhowarizmi, nombre de un matemático y astrónomo árabe que escribió un tratado sobre manipulación de números y ecuaciones en el siglo IX.
      
Un algoritmo es una serie de pasos organizados que describe el proceso que se debe seguir, para dar solución a un problema especifico.




18. CONCEPTOS DE ROBOT & SUS GENERACIONES :
Un robot es una entidad virtual o mecánica artificial. En la práctica, esto es por lo general un sistema electromecánico que, por su apariencia o sus movimientos, ofrece la sensación de tener un propósito propio. La independencia creada en sus movimientos hace que sus acciones sean la razón de un estudio razonable y profundo en el área de la ciencia y tecnología. La palabra robot puede referirse tanto a mecanismos físicos como a sistemas virtuales de software, aunque suele aludirse a los segundos con el término de bots.1
No hay un consenso sobre qué máquinas pueden ser consideradas robots, pero sí existe un acuerdo general entre los expertos y el público sobre que los robots tienden a hacer parte o todo lo que sigue: moverse, hacer funcionar un brazo mecánico, sentir y manipular su entorno y mostrar un comportamiento inteligente, especialmente si ese comportamiento imita al de los humanos o a otros animales. Actualmente podría considerarse que un robot es una computadora con la capacidad y el propósito de movimiento que en general es capaz de desarrollar múltiples tareas de manera flexible según su programación; así que podría diferenciarse de algún electrodoméstico específico.

GENERACIONES:


·         Primera generación: realizan una tarea según una serie de instrucciones programadas previamente, que ejecutan de forma secuencial. Este tipo de robots dispone de sistemas de control en lazo abierto, por lo que no tienen en cuenta las variaciones que puedan producirse en su entorno.
·         Segunda generación: este tipo sí tiene en cuenta las variaciones del entorno. Disponen de sistemas de control en lazo cerrado, con sensores que les permiten adquirir información del medio en que se encuentran y adaptar su actuación a las mismas.
·         Tercera generación: poseen capacidad para la planificación automática de tareas; son robots adaptables a distintos entornos, capaces de reprogramarse de forma automática, en función de los datos proporcionados por los sensores.
·         Las investigaciones que se llevan a cabo en la actualidad en materia de robótica están encaminadas al desarrollo de la cuarta generación de robots, que apunta hacia la creación de sistemas capaces de tomar decisiones y resolver problemas por sí mismos. Es lo que se ha dado en llamar inteligencia artificial.





19. CONCEPTO DE CELULAR Y SUS GENERACIONES:
El teléfono móvil es un dispositivo inalámbrico electrónico para acceder y utilizar los servicios de la red de telefonía celular o móvil. Se denomina celular en la mayoría de países latinoamericanos debido a que el servicio funciona mediante una red de celdas, donde cada antena repetidora de señal es una célula, si bien también existen redes telefónicas móviles satelitales. Su principal característica es su portabilidad, que permite comunicarse desde casi cualquier lugar. La principal función es la comunicación de voz, como el teléfono convencional.
A partir del siglo XXI, los teléfonos móviles han adquirido funcionalidades que van mucho más allá de limitarse solo a llamar o enviarmensajes de texto, se podría decir que se han unificado (que no sustituido) con distintos dispositivos tales como PDAcámara de fotos,agenda electrónicareloj despertadorcalculadoramicroproyectorGPS o reproductor multimedia, así como poder realizar multitud de acciones en un dispositivo pequeño y portátil que lleva prácticamente todo el mundo de países desarrollados. A este tipo de evolución del teléfono móvil se le conoce como Smartphone.
La primera red comercial automática fue la de NTT de Japón en el 1979 y seguido por la NMT en simultaneamente en SueciaDinamarca,Noruega y Finlandia en 1981 usando teléfonos de Ericsson y Mobira (el ancestro de Nokia). Arabia Saudita tambien usaba la MNT y la puso en operación un mes antes que los paises nórdicos. El primer antecedente respecto al teléfono móvil en Estados Unidos es de la compañía Motorola, con su modelo DynaTAC 8000X. El modelo fue diseñado por el ingeniero de Motorola Rudy Krolopp en 1983. El modelo pesaba poco menos de un kilo y tenía un valor de casi 4000 dólares estadounidenses. Krolopp se incorporaría posteriormente al equipo de investigación y desarrollo de Motorola liderado por Martin Cooper. Tanto Cooper como Krolopp aparecen como propietarios de la patente original. A partir del DynaTAC 8000X, Motorola desarrollaría nuevos modelos como el Motorola MicroTAC, lanzado en 1989, y elMotorola StarTAC, lanzado en 1996 al mercado.


NTRODUCCIÓN

La evolución de la Telefonía Celular a obtenido un gran desarrollo en losúltimos años, convirtiendo un terminal Celular no solo en un dispositivo para realizar llamadas de voz sino en un dispositivo que permite varios servicios mas tales como: envió de fotos, audio, vídeo y mas...
En simples palabras, debido a la mejora en la velocidad de transmisiónde datos podemos decir que repercuten estos en mejores servicios, marcando así una nueva generación en la Evolución de la TelefoníaCelular.
Ahora lo que debemos saber es cuales son estas etapas y en que servicios se diferencian?


Primera generación (1G)

La primera generación de Teléfonos Celulares se caracterizo por seranalógica y exclusivamente para llamadas de VOZ.


Segunda generación (2G)

La segunda generación se diferencia de la primera principalmente por elservicio digital. Estas soportan velocidades de información más altas para el servicio de voz, pero limitadas en comunicación de datos, o sea que permite SMS (Short Message Service) a diferencia de la primerageneración.


Generación 2.5 G

Debido a un tema de costo las Operadoras de Servicios migran primero de 2G a una generación de transito 2.5G antes de 3G, esta tecnología es más rápida que 2G,y soporta servicios como GPRS, EDGE.O sea que mejora la velocidad de transmisión de datos permitiendo mejores servicios como ser MMS (Mensajes Multimedia) y acceso a Internet.


Tercera generación 3G.

La tercera generación de la Telefonía Celular se caracteriza por la alta velocidad de transmisión de datos, que repercute en mejores servicio al usuario, como ser Videoconferencia, acceso inalámbrico a Internet de alta velocidad, entre varios servicios


Conclusión: Que define las generaciones en la TelefoníaCelular?

Es la mejora en la velocidad de datos que permiten mejores servicios a usuarios de Telefonía Celular.
 











CRUCIGRAMA:



SOPA DE LETRAS :










No hay comentarios:

Publicar un comentario