lunes, 28 de mayo de 2007

TALLER

1. ELIGIENDO ALGUNOS PUNTOS CRÌTICOS O SIGNIFICATIVOS, REALICE UNA COMPARACIÒN DE NUESTRA EXISTENCIA HACE 200 AÑOS Y LA CONDICIÒN ACTUAL RESPONDIENDO AL INTERROGANTE DE, ¿CÒMO SERÁ EL MUNDO EN EL AÑO 3000?
Posiblemente en el año 3000 habremos pasado por el mundo nano tecnológico y estaremos en medio de las investigaciones de lo mutante como una forma de estudio que implique con más fuerza el mejoramiento de las epidemias o enfermedades venideras (como las investigaciones mutantes de la mosca Drosophila). De todas formas nunca va a para el cambio constante que emana de las necesidades y caprichos en aumento de los individuos en las sociedades.
2. "La ingeniería genética es una tecnología cuya finalidad es mejorar la herencia genética de los seres vivos mediante la manipulaciòn de su código genético" (Rifkin: 127). En su criterio, ¿cuáles serían las ventajas y desventajas de esta tecnología?
Las ventajas estan asociadas con la ayuda que ésta ciencia puede ofrecer al evitar que los bebés nazcan con problemas mentales o físicos, tal vez en un tiempo no muy lejano ayudar a que sean más productivos e inteligentes.Sin embargo las desventajas radican en que éstas manipulaciones llevan por lo menos en un 80% de intencionalidad monetaria, de negocio y de producir 'màquinas' para situaciones o labores especìficas. Es crear seres a imagen o semejanza de las condiciones actuales, como los estereotipos de belleza por ejemplo.
3. Explique el tránsito que va desde la física a la química y finalmente a la biología en materia del desarrollo científico y tecnológico. ¿Cuál es la novedad?
Para tratar de explicar algunos fenómenos como el movimiento, la fuerza o la velocidad -citando ejemplos-, los estudios dieron cuenta de la necesidad de analizar a profundidad el porqué de las texturas, olores y las incidencias de los fenómenos químicos en los físicos; existe una línea que une ambas ciencias y que compensan o ayudan mutuamente a desarrollarse con habilidad. La biología es la unión, casi que el resultado de las dos ciencias unidas para analizar su proceder y los fenómenos del mundo animal -incluido el hombre- y el vegetal. Respecto a lo tecnológico, desde experimentar con cometa sobre la energía, hasta dar luz eléctrica a todo el mundo y gozar de ella se instaura la tecnología que ha permitido que éstos fenómenos científicos crezcan cada vez más como hechos propios o característicos de la vida humana en tanto su supervivencia y satisfacción de necesidades. La novedad de halla en que la biología dejó de ser un estudio meramente humano, vegetal o animal en lo que concierne a sus carácterísticas, lo importante ahora a partir de esos conocimientos es implementar formas de producción de cura a enfermedades o reemplazo de labores humanas o animales instaurando características físicas o mentales a máquinas que aporten a labores de difícil desempeño para éstos -animales o humanos-.
4. Apesar de los grandes desarrollos tecno porductivos prevalece un imaginario de los efectos que ellos pueden generar en términos ambientales. Así lo evidiencian los dos trabajos audiovisuales "cita con la tierra","una verdad incómoda", de Albert Al Gore. ¿Cómo entender esa discursividad en medio de las potencialidades que se les conoce al desarrollo y avance tecnológico?
Es muy difiícil entrar en discusión con este tipo de temas, ya que la tecnología como le hemos tratado durante el curso, solo ha buscado el bien común de la humanidad y para llevarla a cabo se han tenido que sacrificar unas cosas por otras. considramos que así como se están logrando desarrollos tecnológicos altamente calificados se puede perfectamente en un futuro potencializar los ecosistemas y lograr establecer métodos que partan de la tecnología para reparar los daños ecológicos que hasta ahora se presentan.
5. La revolución biotecnológica hace que, en cierta forma, ponderemos la pregunta sobre el fin y el significado de la existencia. un profesional de la comunicación, ¿Cómo podría contribuir a alimentar esa reflexión en la sociedad?
Volviéndose el comunicador mas investigativo y reiterativo en estos tipos de temas, ya que en la mayoría de los casos le sacamos el cuerpo a los contenidos que no concemos o nos parecen aburrido, y es ahí donde está el verdadero proceso del comunicador, enseñar y educar en nuevas experiencias a los espextadores o receptores, de nosotros depende los cambios en el pensamiento de la población y en los procesos de reflexión.

domingo, 13 de mayo de 2007

LA BIOTECNOLOGÍA

Biotecnología:

Utilización o manipulación de organismos vivos, o de compuestos obtenidos de organismos vivos, para la obtención de productos de valor para los seres humanos. Los primeros organismos utilizados fueron microorganismos (como bacterias y hongos), aunque posteriormente se emplearon plantas y más recientemente animales. La biotecnología tradicional incluía procesos microbianos bien conocidos como la elaboración de la cerveza o el pan, la obtención de antibióticos o la depuración de aguas residuales. No obstante, el término ha llegado a hacerse bastante familiar desde el desarrollo, durante la década de 1970, de la ingeniería genética. La biotecnología moderna utiliza organismos modificados genéticamente para obtener beneficios aún mayores, o incluso procedimientos completamente nuevos.
Los ejemplos más antiguos que pueden considerarse como procesos biotecnológicos son la obtención de la cerveza, el vino y otras bebidas alcohólicas. Muchas civilizaciones del pasado descubrieron que el azúcar y las materias primas azucaradas podían sufrir transformaciones espontáneas que generaban alcohol. El proceso fue controlado gradualmente, hasta que en el siglo XIX el químico francés Louis Pasteur demostró que la fermentación estaba producida por microbios. Pasteur demostró también que otros microorganismos, diferentes en apariencia, eran responsables de otros procesos, como la producción de vinagre.
El trabajo de Pasteur no sólo revolucionó la tecnología de la elaboración de la cerveza y el vino, excluyendo microorganismos que pudieran contaminar el proceso de fermentación y causar grandes pérdidas, sino que demostró también que había otros productos que podían ser obtenidos en la industria gracias a la intervención de los microorganismos. Uno de estos productos fue la acetona, un disolvente utilizado para la fabricación de pólvora explosiva. Durante la I Guerra Mundial, el químico y posteriormente primer presidente de Israel, Chaim Weizmann, verificó que la acetona era producida por la bacteria Clostridium acetobutylicum.
Las multinacionales de diversos países se han opuesto a ciertos aspectos de la biotecnología, al igual que muchas organizaciones ecologistas. Las críticas que se hacen a la biotecnología se basan en la incapacidad de predecir lo que puede ocurrir al liberar organismos modificados genéticamente al medio ambiente, así como en la posibilidad de que los nuevos genes que estos organismos transportan puedan causar daños si llegan o se trasladan a otros organismos vivos. Sin embargo, los defensores de estas técnicas argumentan que la precisión de la ingeniería genética, comparada con las transferencias de genes que se producen habitualmente en la naturaleza, reduce más que incrementa dicho peligro. Además, los comités oficiales que regulan la biotecnología en los diferentes países valoran cuidadosamente estos riesgos antes de permitir que se lleve a cabo cualquiera de estos experimentos.

Microsoft ® Encarta ® 2006. © 1993-2005 Microsoft Corporation. Reservados todos los derechos.

INGENIERÍA GENÉTICA

La ingeniería genética:

Consiste en la manipulación del ácido desoxirribonucleico (ADN). En este proceso son muy importantes las llamadas enzimas de restricción producidas por varias especies bacterianas. Las enzimas de restricción son capaces de reconocer una secuencia determinada de la cadena de unidades químicas (bases de nucleótidos) que forman la molécula de ADN, y romperla en dicha localización. Los fragmentos de ADN así obtenidos se pueden unir utilizando otras enzimas llamadas ligasas. Por lo tanto, las enzimas de restricción y las ligasas permiten romper y reunir de nuevo los fragmentos de ADN. También son importantes en la manipulación del ADN los llamados vectores, partes de ADN que se pueden autorreplicar (generar copias de ellos mismos) con independencia del ADN de la célula huésped donde crecen. Estos vectores, generalmente plásmidos o virus, permiten obtener múltiples copias de un fragmento específico de ADN, lo que hace de ellos un recurso útil para producir cantidades suficientes de material con el que trabajar. El proceso de introducción de un fragmento de ADN en un vector se denomina clonación, ya que se producen copias múltiples de un fragmento específico de ADN. Otra forma de obtener muchas copias idénticas de una parte determinada de ADN es la reacción en cadena de la polimerasa. Este método es rápido y evita la preparación de genotecas de ADN (clones de ADN).
Microsoft ® Encarta ® 2006. © 1993-2005 Microsoft Corporation. Reservados todos los derechos.

BIOLOGIA MOLECULAR

Biología molecular:

Ciencia que se ocupa del estudio de la bases moleculares de la vida; es decir, relaciona las estructuras de las biomoléculas con las funciones específicas que desempeñan en la célula y en el organismo.

Estructura del ADN

La presentación del modelo estructural del ácido desoxirribonucleico (ADN) por Francis Harry Compton Crick y James Dewey Watson en 1953, fue el verdadero inicio de la biología molecular. La importancia de este hecho se debe, por un lado a que es la molécula que transmite la información hereditaria de generación en generación (véase Genética), y por otro a que la propia estructura muestra cómo lo logra. El ADN es una molécula de doble hélice, compuesta por dos hebras complementarias unidas entre sí por enlaces entre las bases: adenina (A), guanina (G), citosina (C) y timina (T). La A de una hebra se aparea siempre con la T de la hebra complementaria, y del mismo modo, la G con la C. Durante la replicación o duplicación, las dos hebras simples se separan y cada una de ellas forma una nueva hebra complementaria, incorporando bases, la A se unirá a la T de la hebra molde, la G lo hará con la C y así sucesivamente. De esta manera se obtiene otra molécula de ADN, idéntica a la original y por tanto, el material genético se ha duplicado. Este material incluye toda la información necesaria para el control de las funciones vitales de las células y del organismo. Durante la división celular, las dos células hijas reciben igual dotación genética; de este mismo modo se reparte el material hereditario a la descendencia, cuando se reproduce un organismo.

Clonación génica:

Aunque el gran avance de la biología molecular fue durante la década de 1950, la verdadera expansión de esta ciencia comenzó en la década de 1960 con el descubrimiento de la clonación de genes. Esta técnica permitió aislar fragmentos libres de ADN puro a partir del genoma. Así, fue posible secuenciar fragmentos de ADN, en los cuales estaban incluidos los genes. Todo esto se completó con la puesta en marcha de la técnica de la hibridación, que consiste en el marcaje con isótopos radiactivos de una molécula clónica de ADN, de la cual se conserva sólo una hebra (ADN desnaturalizado o monocatenario). Después de este tratamiento, el fragmento sonda se emplea para detectar secuencias complementarias en presencia de ADN o ARN. Ed Southern, puso en marcha un procedimiento que se llama absorción de Southern y que se describe a continuación. Un ADN genómico que contiene un gen X, se corta en fragmentos que se separan según su tamaño, y se transfieren a un filtro. Al filtro con los fragmentos de ADN, se le aplica ARN o ADN marcado radiactivamente, de secuencia complementaria a la del gen X (fragmento sonda), que delatará al gen X al unirse a él. El método de absorción de Nothern es similar al anterior, el ADN que contiene el gen X, se une al ARN sonda de distintos tejidos, permitiendo así detectar el gen y cuantificarlo en los distintos tejidos. Estas técnicas han hecho posible recopilar una gran cantidad de información sobre la estructura y la expresión génica.

Perspectivas del futuro:

La biología molecular ha avanzado mucho en los cuarenta años siguientes al descubrimiento de la estructura del ADN. Estos progresos ofrecen la posibilidad real de conseguir un tratamiento eficaz de las enfermedades humanas. Para ello es necesaria la comprensión de fenómenos tan complejos como el desarrollo embrionario o el funcionamiento del organismo adulto. Aunque quedan muchos retos por superar, la biología molecular ha alcanzado una gran importancia en nuestros días, tanto es así, que hace 20 años no hubiera merecido un artículo en una enciclopedia general.
Ingeniería genética, conjunto de técnicas que permiten modificar las características de un organismo en un sentido predeterminado mediante la alteración de su material genético. Es un término muy amplio que abarca desde la mutagénesis hasta la selección artificial para la mejora de animales o plantas. La ingeniería genética suele utilizarse para conseguir que determinados microorganismos, como bacterias o virus, aumenten la síntesis de compuestos, formen compuestos nuevos, o se adapten a medios diferentes, así como para la obtención de animales y plantas transgénicos, o animales knockout (también llamados KO) que tienen determinados genes inactivados, lo que permite comprobar el efecto que dicha inactivación ejerce sobre el metabolismo. Otra aplicación de esta técnica, también denominada técnica de ADN recombinante, incluye la terapia génica, la aportación de un gen funcional a una persona que sufre una anomalía genética.
Microsoft ® Encarta ® 2006. © 1993-2005 Microsoft Corporation. Reservados todos los derechos

domingo, 25 de marzo de 2007

DEL DÍNAMO AL CHIP

¿QUE ES UN DÍNAMO?
Un dinamo (o generador eléctrico) es un aparato que transforma la energía de movimiento en una corriente eléctrica.
El concepto se debe a Michael Faraday (1791-1867). Hijo de un pobre herrero, Faraday fue aprendiz de un encuadernador y se instruyó el mismo leyendo los libros que le traían para encuadernar. Se convirtió en el mayor científico británico, famoso por sus brillantes intuiciones y por sus populares discursos. Faraday descubrió que moviendo un imán cerca de un circuito eléctrico cerrado, o cambiando el campo magnético que pasa a su través, era posible "inducir" una corriente eléctrica que fluyera dentro de él. Esa "inducción electromagnética " quedó como principio de los generadores eléctricos, transformadores y muchos otros aparatos.
Faraday mostró que otra forma de inducir la corriente era moviendo el conductor eléctrico mientras la fuente magnética permanecía estacionaria. Este fue el principio de la dinamo de disco, que presentaba un disco conductor girando dentro de un campo magnético (ver el dibujo) movido mediante una correa y una polea en la izquierda. El circuito eléctrico se completaba con hilos estacionarios que tocan el disco en su borde y en su eje, como se muestra en la parte derecha del dibujo. No era un diseño muy práctico de la dinamo (a menos que buscásemos generar enormes corrientes a muy bajo voltaje), pero en el universo a gran escala, la mayoría de las corrientes son producidas, aparentemente, mediante movimientos semejantes.
El conductor de la electricidad en movimiento de Faraday era sólido (p.e. un disco de cobre), pero un fluido en circulación también puede crear tales corrientes. Faraday era consciente de la posibilidad de tales "dinamos fluidas", y en consecuencia, intentó medir la corriente eléctrica creada por el flujo del río Támesis de Londres a través del flujo magnético terrestre. Estiró un hilo a través del puente de Waterloo (dibujo), sumergiendo sus extremos dentro del río e intentó medir el flujo de electricidad inducida (linea curva de pequeñas flechas). Pequeños voltajes debidos a procesos químicos le impidieron observar el efecto, pero la idea era acertada. Faraday incluso especuló (incorrectamente) que el flujo de la Corriente del Golfo en el Océano Atlántico estaba conectado de algún modo con la alta atmósfera, suministrando allí una descarga eléctrica que (bajo su punto de vista) era la aurora polar.
Para ver unos raros ejemplos de su proceso de la dinamo, vaya a los sitios web sobre la dinamo que implica a la luna de Júpiter Io y sobre el experimento de la atadura al espacio sobre la Lanzadera Espacial. La dinamo de disco de Faraday necesita un campo magnético para producir una corriente eléctrica. ¿Es posible que la corriente generada produzca también el campo magnético que necesita el proceso de la dinamo? En resumidas cuentas esto es lo que propuso Larmor que ocurría en las manchas solares.
A primera vista esto parece una proposición del tipo "el huevo o la gallina": para producir una gallina se necesita un huevo, pero para producir un huevo se necesita una gallina, luego ¿quién fue primero? Igualmente aquí, para producir una corriente se necesita un campo magnético, pero para producir un campo magnético se necesita una corriente. Luego, ¿quién fue el primero? Realmente, siempre están presentes débiles campos magnéticos y se podrán ampliar gradualmente por el proceso, por lo que no plantean obstáculos.
EL MUNDO DEL CHIP:
Un circuito integrado (CI) es una pastilla o chip muy delgado en el que se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos y transistores, y también componentes pasivos como resistencia o capacitores. Su área puede ser de un cm2 o incluso inferior. Algunos de los circuitos integrados más avanzados son los microprocesadores que controlan múltiples artefactos: desde computadoras hasta electrodomésticos, pasando por los teléfonos móviles. Otra familia importante de circuitos integrados la constituyen las memorias digitales.
El transistor actúa como un switch. Este puede encenderse electrónicamente o apagarse, o también puede amplificar corriente. Es utilizado por ejemplo en computadoras para almacenar la información o en el amplificadores de un estéreo para hacer la señal del sonido más fuerte.
Las resistencias limitan el flujo de electricidad y nos dan la posibilidad de controlar la cantidad de corriente que es permitida para fluir, las resistencias son utilizadas, entre otras cosas, para controlar el volumen en una televisión o en una radio.
Los capacitores almacenan electricidad y la liberan en un rápido impulso, como en las cámaras fotográficas con una pequeña batería se puede provocar un fuerte flash para iluminar toda la habitación por un instante.
Los diodos detienen la electricidad bajo alguna condición, y le permiten el paso tan solo cuando esta condición cambia. Esto es utilizado por ejemplo, en las foto celdas donde un haz de luz se corta y activa el diodo para detener el flujo a través de él.
Estos componentes son como los bloques para armar en un circuito integrado, dependiendo de cómo son colocados los componentes se puede obtener desde una simple alarma hasta un complejo microprocesador de una computadora.
El primer CI fue desarrollado en 1958 por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase.En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información.
Atendiendo al nivel de integración - número de componentes - los circuitos integrados se clasifican en:
SSI (Small Scale Integration) pequeño nivel: inferior a 12
MSI (Medium Scale Integration) medio: 12 a 99
LSI (Large Scale Integration) grande : 100 a 9999
VLSI (Very Large Scale Integration) muy grande : 10 000 a 99 999
ULSI (Ultra Large Scale Integration) ultra grande : igual o superior a 100 000
En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes grupos:
Circuitos integrados analógicos.
Pueden constar desde simples transistores encapsulados juntos, sin unión entre ellos, hasta dispositivos completos como amplificadores, osciladores o incluso receptores de radio completos.
Circuitos integrados digitales.
Pueden ser desde básicas puertas lógicas (Y, O, NO) hasta los más complicados microprocesadores.
Éstos son diseñados y fabricados para cumplir una función específica dentro de un sistema. En general, la fabricación de los CI es compleja ya que tienen una alta integración de componentes en un espacio muy reducido de forma que llegan a ser microscópicos. Sin embargo, permiten grandes simplificaciones con respecto los antiguos circuitos, además de un montaje más rápido.
Introducción== La historia de los circuitos integrados podría explicar un poco por que nuestro mundo esta lleno de circuitos integrados, podemos encontrar muchos de ellos en computadoras. Por ejemplo, la mayoría de las personas ha escuchado probablemente de los microprocesadores. El microprocesador es un circuito integrado que procesa toda la información en la computadora, este mantiene un registro de las teclas que se han presionadas y de si el mouse ha sido movido, cuenta los números y corre los programas, juegos y el sistema operativo. Los circuitos integrados también pueden ser encontrados en todos los aparatos electrónicos modernos como lo son los automóvil, televisores, reproductores de cd’s, reproductores de MP3, teléfonos celulares, etc. Los circuitos integrados fueron posibles gracias a descubrimientos experimentales que demostraron que los semiconductores pueden realizar las funciones de los tubos de vacío. La integración de grandes cantidades de diminutos transistores en pequeños chips fue un enorme avance sobre la ensamblaje manual de los tubos de vacío (válvulas) y circuitos utilizando componentes discretos. La capacidad de producción masiva de circuitos integrados, confiabilidad y facilidad de agregarles complejidad, impuso la estandarización de los CIs en lugar de diseños utilizando transistores que pronto dejaron obsoletas a las válvulas o tubos de vacío. Existen dos ventajas principales de los CIs sobre los circuitos convencionales: coste y rendimiento. El bajo coste es debido a que los chips, con todos sus componentes, son impresos como una sola pieza por fotolitografía y no construidos por transistores de a uno por vez.
TOMADO DE:

SISTEMAS DE PRODUCCIÓN Y TECNOLOGÍA

El articulo del autor Mónica Maria Valle Flórez trata acerca de cómo la tecnología y los sistemas de producción se relacionan de manera dialéctica. A continuación daremos a conocer los puntos más importantes del autor para contextualizarnos en el mundo de la tecnología y las nuevas reconversiones.

· El ser humano fabrica herramientas y de alguna manera las, herramientas también fabrican al ser humano.
· Desde hace más de 200 años la sociedad occidental estructuró el modo de desarrollo industrial. Lo que se ha llamado la primera revolución industrial supuso un cambio profundo en cuanto la organización del sistema de producción.
· La burguesía industrial y el proletariado emergieron como clases sociales vinculadas directamente a esta nueva sociedad. En el plano cultural se necesitaron nuevos valores y actitudes que legitimaran la sociedad industrial.

PRIMERA REVOLUCIÓN:

· Gran novedad energética la aplicación de la máquina de vapor en los procesos de producción, antes solo se realizaba de forma manual.
· Aparece la gestión empresarial la cual consiste en acostumbrar a los trabajadores a unos horarios de trabajo homogéneos.

SEGUNDA REVOLUCIÓN INDUSTRIAL:

· Los inventos acompañaron esta revolución, aparece l hombre máquina.
· Las fuentes energéticas reemplazan la máquina de vapor. El petróleo y la electricidad hacen funcionar los motores y encienden las luces de la ciudad.
· Toyotismo renovación de la base tecnológica. Nueva fórmula japonesa de organizar la empresa en muchos equipos de trabajo agrupados en los centros de producción.

¿TERCERA REVOLUCIÓN INDUSTRIAL?

· Sociedad de la información según Castells las condiciones para que se den son las siguientes:
1. Centros de investigación.
2. Instituciones de educación superior
3. Empresas de tecnología avanzada.
4. Red auxiliar de proveedores, bienes y servicios.
5. Redes empresariales de capitales de riesgo para financiar las primeras inversiones.

GLOSARIO:

DIALÉCTICA: Método de razonamiento, de cuestionamiento y de interpretación, que ha recibido distintos significados a lo largo de la historia de la Filosofía.
Algunos de estos significados son:
Arte del diálogo y la discusión.
Lucha de los contrarios por la cual surge el progreso de la Historia.
Técnica de razonamiento que procede a través del despliegue de una tesis y su antítesis, resolviendo la contradicción a través de la formulación de una síntesis final.
Arte de ordenar los conceptos en géneros y especies.
Modo de elevarse desde lo sensible hacia lo inteligible, es decir partiendo de la certeza de los sentidos hacia el desarrollo de conceptos de un mayor grado de universalidad y racionalidad.
Teoría y método de conocimiento de los fenómenos de la realidad en su desarrollo y automovimiento, ciencia que trata de las leyes más generales del desarrollo de la naturaleza, de la sociedad y del pensamiento humano que surge en oposición a la Metafísica.
PENSAMIENTO NEOLIBERAL: El crecimiento máximo del producto nacional bruto es lo esencial para el desarrollo de la economía, y en la medida en que esto se logre de modo continuado se van a resolver todos los problemas económicos y sociales del país.
2. Este crecimiento depende, fundamentalmente, del dinamismo del mercado -el más eficiente asignador de los recursos disponibles- y de la actividad del sector privado. El gobierno sólo tiene a este respecto un rol subsidiario.
3. El gobierno, ineficiente por naturaleza para manejar actividades productivas, debe privatizar todas las empresas que todavía controla e incluso numerosos servicios en los que tenía anteriormente una gran responsabilidad: salud, seguridad social, educación, obras públicas, agua potable, correos, etc.
4. Hay que abrir al máximo las fronteras para mercancías, capitales y flujos financieros del exterior. Todo ello conducirá a que las empresas que subsistan sean competitivas y de alta productividad, y a que las empresas ineficientes y caras desaparezcan o se reconviertan.
5. La atracción de capital extranjero es crucial, dada la insuficiencia del ahorro y el capital nacionales. Esto permitirá aumentar la inversión y el empleo y modernizar con nuevas tecnologías toda la actividad productiva de bienes y servicios. Se logrará así la mayor prosperidad para todos.
TAYLORISMO: Sistema de organización del trabajo basado en las ideas del economista norteamericano Frederick W. Taylor,que consiste en la descomposición de los procesos en diversas tareas que se cronometran y se pagan según rendimiento.
El taylorismo corresponde a la división de las distintas tareas del proceso de producción que trae consigo el aislamiento del trabajador y la imposición de un salario proporcional al valor que añaden al proceso productivo. Este nuevo método de organización industrial, cuyo fin era aumentar la productividad y evitar el control del obrero en los tiempos de producción, lo inició Frederick W. Taylor con el deseo de aprovechar al máximo el potencial productivo de la industria.
TOYOTISMO: Corresponde a una revolución en la producción industrial que fue pilar esencial en el sistema de procedimiento industrial japonés y que después de la crisis mundial del petróleo de 1973 comenzó a desplazar al fordismo como modelo referencial en la producción en cadena. Se destaca de su antecesor básicamente en su idea de trabajo flexible, aumento de la productividad a través de la gestión y organización (just in time) y el trabajo combinado que supera a la mecanización e individualización del trabajador, elemento característico del proceso de cadena fondista.
MAQUINA DE VAPOR: La máquina de vapor sentó las bases para la industrialización. Luego de unos pocos años, se convirtió en la fuerza impulsora del trabajo en fábricas y minas.
Uno de los primeros motores a pistón fue desarrollado por el físico francés Denis Papin, en 1690. El sencillo dispositivo consistía en un cilindro simple, que simultáneamente servía como caldera, funcionando principalmente con aire, más que con presión de vapor. Hacia el final del Siglo XVII, ingenieros como el Marqués de Worcester y Thomas Savery, construyeron también algunos de los primeros motores a vapor. El motor de Savery fue utilizado en minería como bomba para drenar el agua de los tú En 1705, el inglés Thomas Newcomen desarrolló los primeros motores de vapor que funcionaban con caldera, cilindro y pistón. En estos motores de vara, una larga barra oscilaba de arriba hacia abajo, transfiriendo la energía a un pistón que se movía dentro del cilindro. Cuando el pistón se elevaba, el vapor entraba al cilindro, se condensaba y la presión del aire empujaba al pistón nuevamente hacia abajo.

El ingeniero escocés James Watt mejoró la invención de Newcomen, que era económicamente poco rentable debido a la gran pérdida de calor. Por eso es considerado como el padre de la máquina a vapor moderna. El primer avance importante que realizó, fue construir un motor con un espacio separado para la condensación del vapor. Este invento, que fue patentado en 1769, mejoró considerablemente la eficacia de la máquina de vapor. La pérdida de vapor resultante del alternado calentamiento y enfriamiento del cilindro, fue prácticamente eliminada por completo gracias a este motor.
A comienzos del Siglo XIX, el ingeniero en minería inglés Richard Trevithick, y el inventor norteamericano Oliver Evans, construyeron exitosamente el primer motor de vapor de alta presión. Trevithick utilizó este modelo para propulsar la primera locomotora de vapor del mundo.
PETRÓLEO: El petróleo ("aceite de piedra") es una mezcla compleja no homogénea de hidrocarburos (compuestos formados principalmente por hidrógeno y carbono). Este por lo general es el resultado de restos fósiles. Puede presentar gran variación en diversos parámetros como color, densidad, gravedad, viscosidad, capacidad calórica, etc. (desde amarillentos y líquidos a negros y viscosos). Estas variaciones son debidas a las diversas proporciones presentes de diferentes hidrocarburos. Es un recurso natural no renovable, y actualmente también es la principal fuente de energía en los países desarrollados. El petróleo líquido puede presentarse asociado a capas de gas natural, en yacimientos que han estado enterrados durante millones de años, cubiertos por los estratos superiores de la corteza terrestre. superiores de la corteza terrestre.
ELECTRICIDAD: La electricidad es un fenómeno físico originado por cargas eléctricas estáticas o en movimiento y por su interacción. Cuando una carga se encuentra en reposo produce fuerzas sobre otras situadas en su entorno. Si la carga se desplaza produce también fuerzas magnéticas. Hay dos tipos de cargas eléctricas, llamadas positivas y negativas. La electricidad está presente en algunas partículas subatómicas. La partícula fundamental más ligera que lleva carga eléctrica es el electrón, que transporta una unidad de carga. Los átomos en circunstancias normales contienen electrones, y a menudo los que están más alejados del núcleo se desprenden con mucha facilidad. En algunas sustancias, como los metales, proliferan los electrones libres. De esta manera un cuerpo queda cargado eléctricamente gracias a la reordenación de los electrones. Un átomo normal tiene cantidades iguales de carga eléctrica positiva y negativa, por lo tanto es eléctricamente neutro. La cantidad de carga eléctrica transportada por todos los electrones del átomo, que por convención son negativas, esta equilibrada por la carga positiva localizada en el núcleo. Si un cuerpo contiene un exceso de electrones quedará cargado negativamente. Por lo contrario, con la ausencia de electrones. un cuerpo queda cargado positivamente, debido a que hay más cargas eléctricas positivas en el núcleo.

lunes, 5 de marzo de 2007

LOS DIEZ MEJORES INVENTOS

La revista Wired ha seleccionado los 10 inventos que consideran han cambiado nuestras vidas en los últimos tiempos. Se trata de los antecesores de muchos elementos tecnológicos que hoy ocupan nuestras vidas y sin los cuales se nos haría extraño vivir, pero que a fin de cuentas no tienen más de medio siglo de vida en la mayoría de los casos.
Además en la revista nos muestran el equivalente en nuestros días a estos inventos, por lo que podemos comprobar los grandes avances tecnológicos de los últimos años. A continuación mostramos la lista elaborada por Wired.
10.- Teléfono móvil StarTac de Motorola (1996): Hasta hacía muy poco tiempo los teléfonos móviles tenían poco de móvil y eran auténticos ladrillos que se llevaban en el coche más que en el bolsillo. Con este modelo todo era más manejable y empezaba a estar el móvil al alcance de todos.
9.- Ordenador personal 5150 de IBM (1981): Fue el primer ordenador personal lanzado por IBM, y revolucionó sobre todo la vida en las oficinas y la de algunos hogares. Contaba con un procesador de tan sólo 4,77 MHz y una memoria de 256 KB.
8.- Walkman TPS-L2 de Sony (1979): Sin duda alguna poco hay que decir sobre el Walkman. Revolucionó la industria por completo y se han vendido más de 350 millones de unidades a lo largo de sus casi 30 años de vida. Su sucesor natural sería el iPod del que ya se han vendido 65 millones de unidades en su corta vida.
7.- Atari 2600 (1977): Por 199 $ se podía conseguir lo que fue la primera videoconsola. Todo un clásico de los videojuegos que no se retiró del mercado hasta 1992. Si pensamos en las posibilidades que ofrece la actual Wii de Nintendo, parece mentira que no hace tanto la gente se maravillase ante el Space Invaders y juegos similares.
6.- Grabador de videocasetes JVC HR-3300 (1976): Fue el primer grabador de cintas VHS que apareció en el mercado. Con él podíamos grabar nuestras películas o programas de televisión favoritos, además de avanzar y rebobinar la cinta. Toda una auténtica novedad en el momento.
5.-Microondas Amana Radarange (1967): Sin duda la aparición del microondas y la posibilidad de preparar alimentos en unos minutos revolucionó la cocina en todo el mundo. Es posible que desde que aparecieron las neveras modernas ningún otro electrodoméstico haya tenido tanta relevancia. Con este modelo de Amana el microondas dejó de ser un producto de lujo.
4.-Cámara de vídeo de Bell & Howell Director Series, modelo 414 Zoomatic 8-mm (1962): Con la aparición de las cámaras de 8mm se abría la posibilidad de que cualquiera pudiese grabar sus propios videos. A pesar de que ya aparecieron este tipo de cámaras en 1932, este modelo de Bell & Howell fue sin duda el más popular.
3.- Cámara de fotos Kodak Brownie 127 (1953): Esta cámara popularizó la fotografía en la sociedad y permitió que la fotografía se convirtiese en un hobby durante los años cincuenta y que casi todas las familias contasen con este modelo para inmortalizar sus momentos felices, viajes y grandes eventos familiares.
2.- Teléfono 500 Desk de Western Electric (1949): Su diseño limpio y la funcionalidad al marcar girando los números se convirtió rápidamente en casi un estándar para cualquier teléfono.
1.- Televisión de RCA, modelo 630TS (1946): Esta fue la primera televisión que se produjo en grandes cantidades. Tenía su pantalla 10 pulgadas, era en blanco y negro y contaba con dos grandes altavoces a cada lado.