Folcsonomía o folksonomía es una indexación social, es decir, la clasificación colaborativa por medio de etiquetas simples en un espacio de nombres llano, sin jerarquías ni relaciones de parentesco predeterminadas. Se trata de una práctica que se produce en entornos de software social cuyos mejores exponentes son los sitios compartidos como del.icio.us (enlaces favoritos), Flickr (fotos), Tagzania (lugares), flof (lugares) o 43 Things (deseos). Ejemplo de Folcsonomía: Nube de tags
Si se compara con otros sistemas de categorización, como el de Gmail, que también se vale de etiquetas, se distingue en que los usuarios comparten las categorizaciones, lo que no sucede en Gmail.
COMO NACIO?:
Las folcsonomías surgen cuando varios usuarios colaboran en la descripción de un mismo material informativo. Por ejemplo, en del.icio.us muchas personas han guardado Wikipedia marcándola con diferentes etiquetas, pero coincidiendo la mayoría en reference, wiki y encyclopedia.
Jon Udell (2004) sugiere que "el abandono de las taxonomías en favor de las listas de palabras claves no es novedad, y que su diferencia fundamental es el intercambio de opiniones (el feedback) que se da en la folcsonomía y no en la taxonomía."[1]
Esta diferencia es también la que acerca la folcsonomía a la memética, en una relación similar a la que se produce entre las ontologías y la semántica.[2] Por otra parte, el concepto tiene relación con el de clasificación facetada utilizado en biblioteconomía.
Derivado de taxonomía, el término folksonomy ha sido atribuido a Thomas Vander Wal.[3] Taxonomía procede del griego "taxis" y "nomos": Taxis significa clasificación y nomos (o nomia), ordenar, gestionar; por su parte, "folc" proviene del alemán "pueblo" (Volk). En consecuencia, de acuerdo con su formación etimológica, folcsonomía (folc+taxo+nomía) significa literalmente "clasificación gestionada por el pueblo (o democrática)".
Aparecen dos tipos de folcsonomía según Thomas Vander Val:
- Folcsonomía amplia : Donde el creador no influye en las etiquetas que se ponen a su contenido, sino que son las propias personas usuarias quienes lo hacen, favoreciendo así que estas etiquetas estén en sus propios idiomas y sus propias palabras. Un ejemplo de folcsonomía amplia es Del.icio.us, página donde se pueden ordenar y compartir los enlaces favoritos.
- Folcsonomía estrecha: Al contrario a la anterior, sólo el creador del contenido o un número reducido de personas aplican las etiquetas al contenido. Generalmente esta folcsonomía esta directamente asociada a un objeto y es difícil saber cómo están siendo utilizadas. Por lo tanto, no genera vocabulario u otras descripciones emergentes. Un ejemplo de folcsonomía estrecha es Flickr, aplicación online de gestión de imágenes y vídeos que permite buscar, almacenar ordenar y compartir, donde la utilización de los tags la lleva a cabo el propietario. Contenido.
Moodle es un Ambiente Educativo Virtual, sistema de gestión de cursos, de distribución libre, que ayuda a los educadores a crear comunidades de aprendizaje en línea. Este tipo de plataformas tecnológicas también se conoce como LMS (Learning Management System).
Moodle fue creado por Martin Dougiamas, quien fue administrador de WebCT en la Universidad Tecnológica de Curtin. Basó su diseño en las ideas del constructivismo en pedagogía que afirman que el conocimiento se construye en la mente del estudiante en lugar de ser transmitido sin cambios a partir de libros o enseñanzas y en el aprendizaje colaborativo. Un profesor que opera desde este punto de vista crea un ambiente centrado en el estudiante que le ayuda a construir ese conocimiento con base en sus habilidades y conocimientos propios en lugar de simplemente publicar y transmitir la información que se considera que los estudiantes deben conocer.
La primera versión de la herramienta apareció el 20 de agosto de 2002 y, a partir de allí han aparecido nuevas versiones de forma regular. Hasta julio de 2008, la base de usuarios registrados incluye más 21 millones, distribuidos en 46.000 sitios en todo el mundo y está traducido a más de 75 idiomas.[1] Contenido [ocultar]
PARA Q SIRVEN?:
En términos de arquitectura, Moodle es una aplicación web que se ejecuta sin modificaciones en Unix, GNU/Linux, OpenSolaris, FreeBSD, Windows, Mac OS X, NetWare y otros sistemas que soportan PHP, incluyendo la mayoría de proveedores de hosting web.
Los datos son almacenados en una sola base de datos SQL: la versión 1.7 (publicada en noviembre de 2006), hace uso total de abstracción de base de datos para que los instaladores puedan elegir entre alguno de los diversos tipos de servidores de bases de datos (Oracle y Microsoft SQL Server son dos objetivos específicos de sistemas administradores de bases de datos). La versión actual de Moodle (1.9) fue publicada en marzo de 2008. MySQL y PostgreSQL fueron las únicas opciones en Moodle 1.6.
COMO NACIO?:
Moodle fue creado por Martin Dougiamas, un administrador de WebCT en Curtin University, Australia, y graduado en Ciencias de la Computación y Educación. Su Ph.D. examinó el uso del software abierto para el soporte de una epistemología construccionista social de enseñanza y aprendizaje con comunidades basadas en Internet de investigación reflexiva. Su investigación tiene fuerte influencia en el diseño de Moodle, proporcionando aspectos pedagógicos perdidos en muchas otras plataformas de aprendizaje virtual.
Blackboard Inc. (NASDAQ: BBBB) es una compañía de software con sede en Washington, DC, EE. UU. Fundada en 1997, Blackboard se formó como firma consultora con un contrato con la organización sin fines de lucro IMS Global Learning Consortium (http://www.imsglobal.org). En 1998, Blackboard LLC se fusionó con CourseInfo LLC, una pequeña compañía proveedora de programas de administración de cursos originaria de la Universidad de Cornell. La nueva compañía se conoció como Blackboard Inc. La primera línea de productos de aprendizaje en línea (e-learning) fue llamada Blackboard Courseinfo, pero luego el nombre Courseinfo fue descontinuado en el 2000. Blackboard se convirtió en una compañía con acciones al público en junio de 2004. En octubre de 2005, Blackboard anunció planes de fusión con WebCT, una compañía rival de programas de aprendizaje en línea. La fusión se completó el 28 de febrero de 2006, la empresa resultante retuvó el nombre de Blackboard, dirigida por el President y CEO de BlackBoard, Michael Chasen.
A fecha del 2005, Blackboard desarrolló y licenció aplicaciones de programas empresariales y servicios relacionados a más de 2200 instituciones educativas en más de 60 países. Estas instituciones usan el programa de BlackBoard para administrar aprendizaje en línea (e-learning), procesamiento de transacciones, comercio electrónico (e-commerce), y manejo de comunidades en línea (online).
La línea de productos Blackboard incluye:
* Blackboard Academic Suite consiste de: o Blackboard Learning System, un entorno de manejo de cursos. Actualmente esta plataforma está siendo usada a nivel mundial por diversas instituciones relacionadas con la educación, tal es el caso del Servicio Nacional de Aprendizaje SENA en Colombia. También la utilizan la Universidad Nacional de Colombia, la Universidad de los andes y la Pontificia Universidad Javeriana. En México tiene presencia desde hace más de 10 años en diversas universidades e instituciones como el Instituto Tecnológico y de Estudios Superiores de Monterrey (ITESM). o Blackboard Community System, para comunidades en línea y sistemas de portales o Blackboard Content System, un sistema para el manejo de contenido * Blackboard Commerce Suite, consiste de: o Blackboard Transaction System, un sistema de procesamiento de transacciones (tarjeta débito) para identificaciones de universidades o Blackboard Community System, Un sistema para transacciones de comercio electrónico o Bb One, una red comercial para procesar transacciones de tarjetas débito patrocinadas por BlackBoard
Blackboard también tiene una arquitectura abierta, llamada Building Blocks (http://buildingblocks.blackboard.com), que puede se usar para extender la funcionalidad de los productos Blackboard o integrarlos con otros sistemas de programas.
La red original, llamada Web 1.0, se basaba en páginas estáticas programadas en HTML (Hyper Text Mark Language) que no eran actualizadas frecuentemente. El éxito de las .com dependía de webs más dinámicas (a veces llamadas Web 1.5) donde los CMS Sistema de gestión de contenidos (Content Management System en inglés, abreviado CMS) servían páginas HTML dinámicas creadas al vuelo desde una actualizada base de datos. En ambos sentidos, el conseguir hits (visitas) y la estética visual eran considerados como factores importantes.
Los teóricos de la aproximación a la Web 2.0 creen que el uso de la web está orientado a la interacción y redes sociales, que pueden servir contenido que explota los efectos de las redes, creando o no webs interactivas y visuales. Es decir, los sitios Web 2.0 actúan más como puntos de encuentro, o webs dependientes de usuarios, que como webs tradicionales.
PARA Q SIRVEN?:
El término Web 2.0 (2004–presente) está comúnmente asociado con un fenómeno social, basado en la interacción que se logra a partir de diferentes aplicaciones en la web, que facilitan el compartir información, la interoperabilidad, el diseño centrado en el usuario o D.C.U. y la colaboración en la World Wide Web. Ejemplos de la Web 2.0 son las comunidades web, los servicios web, las aplicaciones Web, los servicios de red social, los servicios de alojamiento de videos, las wikis, blogs, mashups y folcsonomías. Un sitio Web 2.0 permite a sus usuarios interactuar con otros usuarios o cambiar contenido del sitio web, en contraste a sitios web no-interactivos donde los usuarios se limitan a la visualización pasiva de información que se les proporciona.
La Web 2.0 esta asociada estrechamente con (Tim O'Reilly), debido a la conferencia sobre la Web 2.0 de O'Reilly Media en 2004. Aunque el término sugiere una nueva versión de la World Wide Web, no se refiere a una actualización de las especificaciones técnicas de la web, sino más bien a cambios acumulativos en la forma en la que desarrolladores de software y usuarios finales utilizan la Web. El hecho de que la Web 2.0 es cualitativamente diferente de las tecnologías web anteriores ha sido cuestionado por el creador de la World Wide Web Tim Berners-Lee , quien califico al termino como "tan solo una jerga"- precisamente porque tenía la intención de que la Web incorporase estos valores en el primer lugar.
SERVICIOS ASOCIADOS:
Para compartir en la Web 2.0 se utilizan una serie de herramientas, entre las que se pueden destacar:
* Blogs: La blogosfera es el conjunto de blogs que hay en Internet. Un blog es un espacio web personal en el que su autor (puede haber varios autores autorizados) puede escribir cronológicamente artículos, noticias...(con imágenes y enlaces), pero además es un espacio colaborativo donde los lectores también pueden escribir sus comentarios a cada uno de los artículos (entradas/post) que ha realizado el autor. Hay diversos servidores de weblog gratuitos como por ejemplo: o Blogger. o Wordpress. * Wikis: En hawaiano "wikiwiki " significa: rápido, informal. Una wiki es un espacio web corporativo, organizado mediante una estructura hipertextual de páginas (referenciadas en un menú lateral), donde varias personas autorizadas elaboran contenidos de manera asíncrona. Basta pulsar el botón "editar" para acceder a los contenidos y modificarlos. Suelen mantener un archivo histórico de las versiones anteriores y facilitan la realización de copias de seguridad de los contenidos. Hay diversos servidores de wiki gratuitos: o Wikia. o Wetpaint. o Wikipedia, es el ejemplo más conocido de wiki y de creación colaborativa del conocimiento. * Entornos para compartir recursos: Todos estos entornos nos permiten almacenar recursos en Internet, compartirlos y visualizarlos cuando nos convenga desde Internet. Constituyen una inmensa fuente de recursos y lugares donde publicar materiales para su difusión mundial. o Documentos: podemos subir nuestros documentos y compartirlos, embebiéndolos en un Blog o Wiki, enviándolos por correo o enlazándolos a facebook, twiter, etc. + Scribd Sencillo y con recursos muy interesantes. + Calameo + Issuu Con una presentación magnífica. o Vídeos: lugares donde compartimos nuestros vídeos. + Youtube + Universia.tv + MediaCampus (UNAM) o Presentaciones: existen lugares como Youtube pero para subir y compartir tus presentaciones. + Slideshare + Photopeach Más para presentaciones de fotos con música. o Fotos de la web 2.0 + Flickr * Plataformas educativas: o Moodle o Webquest: Unidades didácticas interactivas y muy fáciles de crear.
RSS son las siglas de RDF Site Summary or Rich Site Summary , un formato XML para sindicar o compartir contenido en la web. Se utiliza para difundir información actualizada frecuentemente a usuarios que se han suscrito a la fuente de contenidos. El formato permite distribuir contenidos sin necesidad de un navegador, utilizando un software diseñado para leer estos contenidos RSS (agregador). A pesar de eso, es posible utilizar el mismo navegador para ver los contenidos RSS. Las últimas versiones de los principales navegadores permiten leer los RSS sin necesidad de software adicional. RSS es parte de la familia de los formatos XML desarrollado específicamente para todo tipo de sitios que se actualicen con frecuencia y por medio del cual se puede compartir la información y usarla en otros sitios web o programas. A esto se le conoce como redifusión web o sindicación web (una traducción incorrecta, pero de uso muy común).
TERMINO:
Este acrónimo se usa para referirse a los siguientes estándares:
* Rich Site Summary (RSS 0.91) * RDF Site Summary (RSS 0.9 y 1.0) * Really Simple Syndication (RSS 2.0)
Las redes sociales son estructura sociales compuestas de grupos de personas, las cuales están conectadas por uno o varios tipos de relaciones, tales como amistad, parentesco, intereses comunes o que comparten conocimientos.
El análisis de redes sociales estudia esta estructura social aplicando la Teoría de Grafos e identificando las entidades como "nodos" o "vértices" y las relaciones como "enlaces" o "aristas". La estructura del grafo resultante es a menudo muy compleja. Como se ha dicho, puede haber muchos tipos de lazos entre los nodos. La investigación multidisciplinar ha mostrado que las redes sociales operan en muchos niveles, desde las relaciones de parentesco hasta las relaciones de organizaciones a nivel estatal (se habla en este caso de Redes políticas), desempeñando un papel crítico en la determinación de la agenda política y el grado en el cual los individuos o las organizaciones alcanzan sus objetivos o reciben influencias.
En su forma más simple, una red social es un mapa de todos los lazos relevantes entre todos los nodos estudiados. Se habla en este caso de redes "sociocéntricas" o "completas". Otra opción es identificar la red que envuelve a una persona (en los diferentes contextos sociales en los que interactúa); en este caso se habla de "red personal".
La red social también puede ser utilizada para medir el capital social (es decir, el valor que un individuo obtiene de los recursos accesibles a través de su red social). Estos conceptos se muestran, a menudo, en un diagrama donde los nodos son puntos y los lazos, líneas.
COMO NACIERON:
Linton Freeman ha escrito la historia del progreso de las redes sociales y del análisis de redes sociales.[7]
Los precursores de las redes sociales, a finales del siglo XVIII incluyen a Émile Durkheim y a Ferdinand Tönnies. Tönnies argumentó que los grupos sociales pueden existir bien como lazos sociales personales y directos que vinculan a los individuos con aquellos con quienes comparte valores y creencias (gemeinschaft), o bien como vínculos sociales formales e instrumentales (gesellschaft). Durkheim aportó una explicación no individualista al hecho social, argumentando que los fenómenos sociales surgen cuando los individuos que interactúan constituyen una realidad que ya no puede explicarse en términos de los atributos de los actores individuales. Hizo distinción entre una sociedad tradicional -con "solidaridad mecánica"- que prevalece si se minimizan las diferencias individuales; y una sociedad moderna -con "solidaridad orgánica"- que desarrolla cooperación entre individuos diferenciados con roles independientes.
Por su parte, Georg Simmel a comienzos del siglo XX, fue el primer estudioso que pensó directamente en términos de red social. Sus ensayos apuntan a la naturaleza del tamaño de la red sobre la interacción y a la probabilidad de interacción en redes ramificadas, de punto flojo, en lugar de en grupos. (Simmel, 1908/1971).
Después de una pausa en las primeras décadas del siglo XX, surgieron tres tradiciones principales en las redes sociales. En la década de 1930, L. Moreno J.L. Moreno fue pionero en el registro sistemático y en el análisis de la interacción social de pequeños grupos, en especial las aulas y grupos de trabajo (sociometría), mientras que un grupo de Harvard liderado por Lloyd Warner W. Lloyd Warner y Mayo Elton Mayo exploró las relaciones interpersonales en el trabajo. En 1940, en su discurso a los antropólogos británicos, A.R. Radcliffe-Brown instó al estudio sistemático de las redes.[8] Sin embargo, tomó unos 15 años antes de esta convocatoria fuera seguida de forma sistemática.
El Análisis de redes sociales se desarrolló con los estudios de parentesco de Elizabeth Bott en Inglaterra entre los años 1950, y con los estudios de urbanización del grupo de antropólogos de la Universidad de Manchester (acompañando a Max Gluckman y después a Clyde Mitchell J. Clyde Mitchell) entre los años 1950 y 1960, investigando redes comunitarias en el sur de África, India y el Reino Unido. Al mismo tiempo, el antropólogo británico Frederick Nadel SF Nadel codificó una teoría de la estructura social que influyó posteriormente en el análisis de redes.[9]
Entre los años 1960 y 1970, un número creciente de académicos trabajaron en la combinación de diferentes temas y tradiciones. Un grupo fue el de White Harrison White y sus estudiantes en el Departamento de Relaciones Sociales de la Universidad de Harvard: Ivan Chase, Bonnie Erickson, Harriet Friedmann, Granovetter Mark Granovetter, Nancy Howell, Joel Levine, Nicholas Mullins, John Padgett, Schwartz (sociologist) Michael Schwartz y Wellman Barry Wellman. Otras personas importantes en este grupo inicial fueron Charles Tilly, quien se enfocó en redes en sociología política y movimientos sociales, y Stanley Milgram, quien desarrolló la tesis de los "seis grados de separación".[10] Mark Granovetter y Barry Wellman están entre los antiguos estudiantes de White que han elaborado y popularizado el análisis de redes sociales.[11]
Pero el grupo de White no fue el único. En otros lugares, distintos académicos desarrollaron un trabajo independiente significativo: científicos sociales interesados en aplicaciones matemáticas de la Universidad de California Irvine en torno a Linton Freeman, incluyendo a John Boyd, Susan Freeman, Kathryn Faust, Kimball Romney A. Kimball Romney y White Douglas White; analistas cuantitativos de la Universidad de Chicago, incluyendo a Joseph Galaskiewicz, Wendy Griswold, Edward Laumann, Peter Marsden, Martina Morris, y John Padgett; y académicos de la comunicación en la Universidad de Michigan, incluyendo a Lin Nan Lin y Rogers Everett Rogers. En los 70s, se ćonstituyó un grupo de sociología sustantiva orientada de la Universidad de Toronto, en torno a antiguos estudiantes de Harrison White: S.D. Berkowitz, Harriet Friedmann, Nancy Leslie Howard, Nancy Howell, Lorne Tepperman y Wellman Barry Wellman, y también los acompañó el señalado modelista y teorético de los juegos Rapoport Anatol Rapoport. En términos de la teoría, criticó el individualismo metodológico y los análisis basados en grupos, argumentando que ver el mundo desde la óptica de las redes sociales ofrece un apalancamiento más analítico.[12]
En el mundo Iberoamericano existen la Revista REDES y el web REDES, albergado en REDIRis, creados a partir de la Conferencia Internacional de redes sociales celebrada en Sitges, Barcelona, en 1998.
De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda
Un wiki (o una wiki) (del hawaiano wiki, «rápido»[1] ) es un sitio web cuyas páginas pueden ser editadas por múltiples voluntarios a través del navegador web. Los usuarios pueden crear, modificar o borrar un mismo texto que comparten. Los textos o «páginas wiki» tienen títulos únicos. Si se escribe el título de una «página wiki» en algún lugar del wiki entre dobles corchetes (...), esta palabra se convierte en un «enlace web» a la página wiki.
COMO NACIERON?:
El origen de los wikis está en la comunidad de patrones de diseño, cuyos integrantes los utilizaron para escribir y discutir patrones de programación. El primer WikiWikiWeb fue creado por Ward Cunningham, quien inventó y dio nombre al concepto wiki, y produjo la primera implementación de un servidor WikiWiki para el repositorio de patrones del Portland (Portland Pattern Repository) en 1995. En palabras del propio Cunningham, un wiki es «la base de datos en línea más simple que pueda funcionar» (the simplest online database that could possibly work).[2] El wiki de Ward aún es uno de los sitios wiki más populares.
En enero de 2001, los fundadores del proyecto de enciclopedia Nupedia, Jimbo Wales y Larry Sanger, decidieron utilizar un wiki como base para el proyecto de enciclopedia Wikipedia. Originalmente se usó el software UseMod, pero luego crearon un software propio, MediaWiki, que ha sido adoptado después por muchos otros wikis.
Actualmente, el wiki más grande que existe es la versión en inglés de Wikipedia, seguida por varias otras versiones del proyecto. Los wikis ajenos a Wikipedia son mucho más pequeños y con menor participación de usuarios, generalmente debido al hecho de ser mucho más especializados. Es muy frecuente por ejemplo la creación de wikis para proveer de documentación a programas informáticos, especialmente los desarrollados en software libre.
PARA Q SIRVEN:
La principal utilidad de un wiki es que permite crear y mejorar las páginas de forma instantánea, dando una gran libertad al usuario, y por medio de una interfaz muy simple. Esto hace que más gente participe en su edición, a diferencia de los sistemas tradicionales, donde resulta más difícil que los usuarios del sitio contribuyan a mejorarlo.
Dada la gran rapidez con la que se actualizan los contenidos, la palabra «wiki» adopta todo su sentido. El documento de hipertexto resultante, denominado también «wiki» o «WikiWikiWeb», lo produce típicamente una comunidad de usuarios. Muchos de estos lugares son inmediatamente identificables por su particular uso de palabras en mayúsculas, o texto capitalizado - uso que consiste en poner en mayúsculas las iniciales de las palabras de una frase y eliminar los espacios entre ellas - como por ejemplo en EsteEsUnEjemplo. Esto convierte automáticamente a la frase en un enlace. Este wiki, en sus orígenes, se comportaba de esa manera, pero actualmente se respetan los espacios y sólo hace falta encerrar el título del enlace entre dos corchetes.
Blogger es un servicio creado por Pyra Labs para crear y publicar una bitácora en línea. El usuario no tiene que escribir ningún código o instalar programas de servidor o de scripting. Blogger acepta para el alojamiento de las bitácoras su propio servidor (Blogspot) o el servidor que el usuario especifique (FTP o SFTP)
COMO NACIERON:
Lanzado en agosto de 1999, es una de las primeras herramientas de publicación de bitácora en líneas y es acreditado por haber ayudado a popularizar el uso de formularios. Más específicamente, en vez de escribir a mano el HTML y frecuentemente subir las nuevas publicaciones, el usuario puede publicar a su bitácora en línea llenando un formulario en el sitio web de Blogger. Esto puede ser realizado por cualquier navegador y los resultados son inmediatos.
En el 2003, Pyra Labs fue adquirido por la empresa Google; por ende, también Blogger. Google consiguió los recursos que Pyra requería. Más adelante, las "características premium", que eran pagas, fueron habilitadas para el público en general gracias a la ayuda de Google.
En el 2004, Google compró Picasa y su utilidad de intercambio de fotografías Hello. Esto permitió a los usuarios de Blogger poner fotografías en sus bitácoras. Así el photoblogging (o la posibilidad de publicar fotografías en las bitácoras) se hacía realidad en Blogger con la integración de Hello.
El 9 de mayo de 2004, Blogger fue relanzado, añadiendo nuevas plantillas de diseño basadas en CSS, archivaje individual de publicaciones, comentarios y publicación por correo electrónico. Después Google lanzaría una herramienta llamada BlogThis! en la barra de búsqueda Google. La herramienta BlogThis! permite abrir una nueva ventana con un formulario de publicación que permite al usuario publicar sin necesidad de visitar la página principal de Blogger e ingresar un usuario.
A finales de 2006, con el nuevo Blogger Beta, se hizo posible lo que tanta falta hacía en Blogger: el poder publicar artículos por categorías o etiquetas, (labels) como son llamados en Blogger, así como la posibilidad de poner bitácoras de acceso restringido o privadas para solo unos cuantos, entre otras funciones.
Inicialmente el servicio de Blogger Beta no permitía hacer los cambios a la plantilla modificando el código HTML. Tiempo después se migraron las cuentas anteriores de Blogger al nuevo Blogger Beta sin que signifique ninguna molestia a sus usuarios.
HACIA DONDEN VAN:
La actualización al nuevo Blogger requiere el registro de una cuenta de Google e incluye, entre otras mejoras, el servicio de etiquetado de artículos y una mejora en la interfaz de edición y publicación de artículos. La nueva versión no modifica en absoluto la apariencia de las bitácoras en línea creados en la versión antigua, salvo algunos pequeños problemas con acentos y caracteres especiales como la letra ñ. Una vez actualizado un blog, puede decidirse dar un paso más y actualizar la plantilla, con lo que se perderían las modificaciones realizadas al HTML. Por ello se recomienda hacer copia de seguridad de la plantilla (y todos los snippets que se hayan ido incluyendo) antes de asimilar el nuevo conjunto de plantillas.
La electrónica digital considera valores discretos de tensión, corriente o cualquier otra medida; estos son valores concretos determinados, mientras que la electrónica analógica, la que connsideramos en esta sección, considera y trabaja con valores continuos de estas variables; pudiendo tomar, en teoría, valores infinitos.
Ejemplo:
Disponemos de una medida real concreta; por ejemplo, la longitud total de un coche.
En un sistema digital la medida del coche podria ser de 4 metros o de 4 metros y 51 cm. Podremos darle cualquier presición pero siempre serán números enteras.
En un sistema analogico la medida seria real; es decir 4,51528397... teoricamente hasta que llegasemos a la minima cantidad de materia existente (siempre que el instrumento de medida sea lo suficientemente exacto).
La electrónica digital es una parte de la electrónica que se encarga de sistemas electrónicos en los cuales la información está codificada en dos únicos estados. A dichos estados se les puede llamar "verdadero" o "falso", o más comúnmente 1 y 0, refiriéndose a que en un circuito electrónico digital hay dos niveles de tensión.
Electrónicamente se les asigna a cada uno un voltaje o rango de voltaje determinado, a los que se les denomina niveles lógicos, típicos en toda señal digital. Por lo regular los valores de voltaje en circuitos electrónicos pueden ir desde 1.5, 3, 5, 9 y 18 voltios dependiendo de la aplicación, así por ejemplo, en una radio de transistores convencional las tensiones de voltaje son por lo regular de 5 y 12 voltios al igual que se utiliza en los discos duros IDE de computadora.
Se diferencia de la electrónica analógica en que, para la electrónica digital un valor de voltaje codifica uno de estos dos estados, mientras que para la electrónica analógica hay una infinidad de estados de información que codificar según el valor del voltaje.
Esta particularidad permite que, usando Álgebra Booleana y un sistema de numeración binario, se puedan realizar complejas operaciones lógicas o aritméticas sobre las señales de entrada, muy costosas de hacer empleando métodos analógicos.
La electrónica digital ha alcanzado una gran importancia debido a que es utilizada para realizar autómatas y por ser la piedra angular de los sistemas microprogramados como son los ordenadores o computadoras.
Los sistemas digitales pueden clasificarse del siguiente modo:
En primer término, es una ciencia dentro de la física basada en semiconductores y sus circuitos electrónicos y más detalladamente aún los circuitos electrónicos integrados, poseen uniones como lo son los diodos, transistores, tiristores, etc. Y también la formación de circuitos electrónicos básicos como Amplificadores, Osciladores, Multivibradores, Convertidores, entre otros, y algunos componentes pasivos como las resistencias, condensadores, bobinados.
La Electrónica se puede dividir en dos grandes grupos: la electrónica analógica y la electrónica digital.
En esta web trataremos de detallar cada uno de los item ya dados y también tendremos un blog sobre electrónica que tendrá artículos relacionados con ésta y de actualidad.
Se llama régimen transitorio, o solamente "transitorio", a aquella respuesta de un circuito eléctrico que se extingue en el tiempo, en contraposición al régimen permanente, que es la respuesta que permanece constante hasta que se varía bien el circuito o bien la excitación del mismo.
La figura muestra un transitorio de tensión, que dura el tiempo de carga del condensador. Una vez cargado, la salida ya no varía. No existe un punto donde el régimen cambia, pasando de transitorio a permanente, sino que el transitorio tiende asintóticamente al régimen permanente. En la práctica se elige un valor arbitrario que depende de la aplicación de que se trate. Figura 2. Simulación de un transitorio de tensión con sobreimpulso.
Desde el punto de vista del análisis circuital, el régimen transitorio viene dado por la solución homogénea de la ecuación diferencial lineal que describe el circuito, mientras que el régimen permanente se obtiene de la solución de la particular. El amortiguamiento nos indica la evolución del transitorio, que se puede aproximar monótonamente al régimen permanente, como en la figura 1, o bien sufrir oscilaciones amortiguadas. Este último caso puede ser peligroso pues el nivel de tensión o corriente puede superar los niveles nominales de funcionamiento, como se ve en la figura 2. El generador produce un tono de 10 KHz y 10 Vp, que se inicia a los 2 ms.
Desde el punto de vista tecnológico, los transitorios son de gran importancia. Se producen en todos los circuitos (el encendido ya es un transitorio) y se suelen extinguir de forma natural sin causar problemas, pero existen casos donde se deben limitar pues pueden provocar un mal funcionamiento o incluso la destrucción de algún componente. Debe prestarse atención a los transitorios principalmente en las siguientes situaciones:
* Encendido. Transitorios en las líneas de alimentación pueden destruir algún componente. En los amplificadores operacionales o circuitos cmos puede presentarse el fenómeno de Latch-up. * Conmutación de inductancias: Relés, motores, actuadores electromagnéticos... Son peligrosos para el elemento de potencia que los gobierna. Se suelen proteger con diodos. * Líneas de transmisión. En líneas de transmisión incorrectamente adaptadas se producen reflexiones que, en el caso de circuitos digitales, se comportan como transitorios. También estas líneas son susceptibles de captar ruidos de diversa procedencia que se acoplan a ellas llevando la señal fuera del margen de funcionamiento. Algunas familias digitales incluyen clamp diodes para proteger las entradas de estos transitorios.
Pero los transitorios también son útiles. Se utilizan en temporizadores, multivibradores, osciladores de relajación, fuentes de alimentación conmutadas, etc. En estos circuitos se produce algún tipo de conmutación en el circuito que es la que produce el transitorio. Cuando éste alcanza cierto nivel, se produce una nueva conmutación que genera otro transitorio.
El electromagnetismo es una rama de la Física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría, cuyos fundamentos fueron sentados por Michael Faraday y formulados por primera vez de modo completo por James Clerk Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales (corriente eléctrica, polarización eléctrica y polarización magnética), conocidas como ecuaciones de Maxwell.
El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales dependientes de la posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos físicos macroscópicos en los cuales intervienen cargas eléctricas en reposo y en movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre las sustancias sólidas, líquidas y gaseosas. Por ser una teoría macroscópica, es decir, aplicable sólo a un número muy grande de partículas y a distancias grandes respecto de las dimensiones de éstas, el Electromagnetismo no describe los fenómenos atómicos y moleculares, para los que es necesario usar la Mecánica Cuántica.
El electromagnetismo considerado como fuerza es una de las cuatro fuerzas fundamentales del universo actualmente conocido.
HISTORIA:
Desde la antigua Grecia se conocían los fenómenos magnéticos y eléctricos pero no es hasta inicios del siglo XVII donde se comienza a realizar experimentos y a llegar a conclusiones científicas de estos fenómenos.[1] Durante estos dos siglos, XVII y XVIII, grandes hombres de ciencia como William Gilbert, Otto von Guericke, Stephen Gray, Benjamin Franklin, Alessandro Volta entre otros estuvieron investigando estos dos fenómenos de manera separada y llegando a conclusiones coherentes con sus experimentos. Michael Faraday.
A principios del siglo XIX Hans Christian Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos estaban relacionados. De ahí es que los trabajos de físicos como André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon Ohm, Michael Faraday en ese siglo, son unificados por James Clerk Maxwell en 1861 con un conjunto de ecuaciones que describían ambos fenómenos como uno solo, como un fenómeno electromagnético.[1] James Clerk Maxwell.
Las ahora llamadas ecuaciones de Maxwell demostraban que los campos eléctricos y los campos magnéticos eran manifestaciones de un solo campo electromagnético. Además describía la naturaleza ondulatoria de la luz, mostrándola como una onda electromagnética.[2] Con una sola teoría consistente que describía estos dos fenómenos antes separados, los físicos pudieron realizar varios experimentos prodigiosos e inventos muy útiles como la bombilla eléctrica por Thomas Alva Edison o el generador de corriente alterna por Nikola Tesla.[3] El éxito predicitivo de la teoría de Maxwell y la búsqueda de una interpretación coherente de sus implicaciones, fue lo que llevó a Albert Einstein a formular su teoría de la relatividad que se apoyaba en algunos resultados previos de Hendrik Antoon Lorentz y Henri Poincaré.
En la primera mitad del siglo XX, con el advenimiento de la mecánica cuántica, el electromagnetismo tenía que mejorar su formulación con el objetivo de que fuera coherente con la nueva teoría. Esto se logró en la década de 1940 cuando se completó una teoría cuántica electromagnética o mejor conocida como electrodinámica cuántica.
Desde la antigua Grecia se conocían los fenómenos magnéticos y eléctricos pero no es hasta inicios del siglo XVII donde se comienza a realizar experimentos y a llegar a conclusiones científicas de estos fenómenos.[1] Durante estos dos siglos, XVII y XVIII, grandes hombres de ciencia como William Gilbert, Otto von Guericke, Stephen Gray, Benjamin Franklin, Alessandro Volta entre otros estuvieron investigando estos dos fenómenos de manera separada y llegando a conclusiones coherentes con sus experimentos. Michael Faraday.
A principios del siglo XIX Hans Christian Ørsted encontró evidencia empírica de que los fenómenos magnéticos y eléctricos estaban relacionados. De ahí es que los trabajos de físicos como André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon Ohm, Michael Faraday en ese siglo, son unificados por James Clerk Maxwell en 1861 con un conjunto de ecuaciones que describían ambos fenómenos como uno solo, como un fenómeno electromagnético.[1] James Clerk Maxwell.
Las ahora llamadas ecuaciones de Maxwell demostraban que los campos eléctricos y los campos magnéticos eran manifestaciones de un solo campo electromagnético. Además describía la naturaleza ondulatoria de la luz, mostrándola como una onda electromagnética.[2] Con una sola teoría consistente que describía estos dos fenómenos antes separados, los físicos pudieron realizar varios experimentos prodigiosos e inventos muy útiles como la bombilla eléctrica por Thomas Alva Edison o el generador de corriente alterna por Nikola Tesla.[3] El éxito predicitivo de la teoría de Maxwell y la búsqueda de una interpretación coherente de sus implicaciones, fue lo que llevó a Albert Einstein a formular su teoría de la relatividad que se apoyaba en algunos resultados previos de Hendrik Antoon Lorentz y Henri Poincaré.
En la primera mitad del siglo XX, con el advenimiento de la mecánica cuántica, el electromagnetismo tenía que mejorar su formulación con el objetivo de que fuera coherente con la nueva teoría. Esto se logró en la década de 1940 cuando se completó una teoría cuántica electromagnética o mejor conocida como electrodinámica cuántica.
El magnetismo es un fenómeno físico por el que los materiales ejercen fuerzas de atracción o repulsión sobre otros materiales. Hay algunos materiales conocidos que han presentado propiedades magnéticas detectables fácilmente como el níquel, hierro, cobalto y sus aleaciones que comúnmente se llaman imanes. Sin embargo todos los materiales son influenciados, de mayor o menor forma, por la presencia de un campo magnético.
El magnetismo también tiene otras manifestaciones en física, particularmente como uno de los dos componentes de la radiación electromagnética, como por ejemplo, la luz.
EXPLICACION DEL MAGNETISMO:
Cada electrón es, por su naturaleza, un pequeño imán (véase Momento dipolar magnético electrónico). Ordinariamente, innumerables electrones de un material están orientados aleatoriamente en diferentes direcciones, pero en un imán casi todos los electrones tienden a orientarse en la misma dirección, creando una fuerza magnética grande o pequeña dependiendo del número de electrones que estén orientados.
Además del campo magnético intrínseco del electrón, algunas veces hay que contar también con el campo magnético debido al movimiento orbital del electrón alrededor del núcleo. Este efecto es análogo al campo generado por una corriente eléctrica que circula por una bobina (ver dipolo magnético). De nuevo, en general el movimiento de los electrones no da lugar a un campo magnético en el material, pero en ciertas condiciones los movimientos pueden alinearse y producir un campo magnético total medible.
El comportamiento magnético de un material depende de la estructura del material y, particularmente, de la configuración electrónica.
HISTORIA:
Los fenómenos magnéticos fueron conocidos por los antiguos griegos. Se dice que por primera vez se observaron en la ciudad de Magnesia del Meandro en Asia Menor, de ahí el término magnetismo. Sabían que ciertas piedras atraían el hierro, y que los trocitos de hierro atraídos atraían a su vez a otros. Estas se denominaron imanes naturales.[cita requerida]
El primer filósofo que estudió el fenómeno del magnetismo fue Tales de Mileto, filósofo griego que vivió entre 625 a. C. y 545 a. C.[1] En China, la primera referencia a este fenómeno se encuentra en un manuscrito del siglo IV a. C. titulado Libro del amo del valle del diablo: «La magnetita atrae al hierro hacia sí o es atraída por éste».[2] La primera mención sobre la atracción de una aguja aparece en un trabajo realizado entre los años 20 y 100 de nuestra era: «La magnetita atrae a la aguja».
La electrónica es la rama de la física y especialización de la ingeniería, que estudia y emplea sistemas cuyo funcionamiento se basa en la conducción y el control del flujo microscópico de los electrones u otras partículas cargadas eléctricamente.
Utiliza una gran variedad de conocimientos, materiales y dispositivos, desde los semiconductores hasta las válvulas termoiónicas. El diseño y la construcción de circuitos electrónicos para resolver problemas prácticos forma parte de la electrónica y de los campos de la ingeniería electrónica, electromecánica y la informática en el diseño de software para su control. El estudio de nuevos dispositivos semiconductores y su tecnología se suele considerar una rama de la física, más concretamente en la rama de ingeniería de materiales.
APLICACIONES DE LA ELECTRONICA:
La electrónica desarrolla en la actualidad una gran variedad de tareas. Los principales usos de los circuitos electrónicos son el control, el procesado, la distribución de información, la conversión y la distribución de la energía eléctrica. Estos dos usos implican la creación o la detección de campos electromagnéticos y corrientes eléctricas. Entonces se puede decir que la electrónica abarca en general las siguientes áreas de aplicación:
* Electrónica de control * Telecomunicaciones * Electrónica de potencia
HISTORIA:
Se considera que la electrónica comenzó con el diodo de vacío inventado por John Ambrose Fleming en 1904. El funcionamiento de este dispositivo está basado en el efecto Edison. Edison fue el primero que observó en 1883 la emisión termoiónica, al colocar una lámina dentro de una bombilla para evitar el ennegrecimiento que producía en la ampolla de vidrio el filamento de carbón. Cuando se polarizaba positivamente la lámina metálica respecto al filamento, se producía una pequeña corriente entre el filamento y la lámina. Este hecho se producía porque los electrones de los átomos del filamento, al recibir una gran cantidad de energía en forma de calor, escapaban de la atracción del núcleo (emisión termoiónica) y, atravesando el espacio vacío dentro de la bombilla, eran atraídos por la polaridad positiva de la lámina.
Un circuito eléctrico es una red eléctrica de componentes, tales como resistencias, inductores, capacitores, fuentes, y semiconductores que tienen una trayectoria cerrada, y que a su vez, su corriente regresa al punto de origen.
PARTES:
* Componente: Un dispositivo con dos o más terminales que puede fluir carga dentro de él. En la figura 1 se ven 8 componentes entre resistores y fuentes. * Nodo: Punto de un circuito donde concurren varios conductores distintos. A, B, D, E son nodos. C no es un nodo porque es el mismo nodo A al no existir entre ellos diferencia de potencial (VA - VC = 0). * Rama: Conjunto de todos los elementos de un circuito comprendidos entre dos nodos consecutivos. En la figura 1 se hallan siete ramales: AB por la fuente, AB por R1, AD, AE, BD, BE y DE. Obviamente, por un ramal sólo puede circular una corriente. * Malla: Un grupo de ramas que están unidas en una red y que a su vez forman un lazo. * Fuente:Componente que se encarga de convertir energía cinética en energía eléctrica. En el circuito de la figura 1 hay tres fuentes, una de intensidad, I, y dos de tensión, E1 y E2. * Conductor: Comúnmente llamado cable; es un hilo de resistencia despreciable (idealmente cero) que une los elementos para formar el circuito.
CLASIFICACION
TIPOS DE SEÑAL: corriente continua, corriente alterna
TIPOS DE REGIMEN: corriente periodica, corriente transitoria, permanente
TIPOS DE COMPONENTES: elctricos, electronicos: DIGITALES, ANALOGICOS, MIXTOS.
La electricidad (del griego elektron, cuyo significado es ámbar) es un fenómeno físico cuyo origen son las cargas eléctricas y cuya energía se manifiesta en fenómenos mecánicos, térmicos, luminosos y químicos, entre otros[1] [2] [3] [4] , en otras palabras es el flujo de electrones. Se puede observar de forma natural en fenómenos atmosféricos, por ejemplo los rayos, que son descargas eléctricas producidas por la transferencia de energía entre la ionosfera y la superficie terrestre (proceso complejo del que los rayos solo forman una parte). Otros mecanismos eléctricos naturales los podemos encontrar en procesos biológicos, como el funcionamiento del sistema nervioso. Es la base del funcionamiento de muchas máquinas, desde pequeños electrodomésticos hasta sistemas de gran potencia como los trenes de alta velocidad, y asimismo de todos los dispositivos electrónicos.[5] Además es esencial para la producción de sustancias químicas como el aluminio y el cloro.
También se denomina electricidad a la rama de la física que estudia las leyes que rigen el fenómeno y a la rama de la tecnología que la usa en aplicaciones prácticas. Desde que, en 1831, Faraday descubriera la forma de producir corrientes eléctricas por inducción —fenómeno que permite transformar energía mecánica en energía eléctrica— se ha convertido en una de las formas de energía más importantes para el desarrollo tecnológico debido a su facilidad de generación y distribución y a su gran número de aplicaciones. La electricidad en una de sus manifestaciones naturales: el relámpago.
La electricidad es originada por las cargas eléctricas, en reposo o en movimiento, y las interacciones entre ellas. Cuando varias cargas eléctricas están en reposo relativo se ejercen entre ellas fuerzas electrostáticas. Cuando las cargas eléctricas están en movimiento relativo se ejercen también fuerzas magnéticas. Se conocen dos tipos de cargas eléctricas: positivas y negativas. Los átomos que conforman la materia contienen partículas subatómicas positivas (protones), negativas (electrones) y neutras (neutrones). También hay partículas elementales cargadas que en condiciones normales no son estables, por lo que se manifiestan sólo en determinados procesos como los rayos cósmicos y las desintegraciones radiactivas.[6]
La electricidad y el magnetismo son dos aspectos diferentes de un mismo fenómeno físico, denominado electromagnetismo, descrito matemáticamente por las ecuaciones de Maxwell. El movimiento de una carga eléctrica produce un campo magnético, la variación de un campo magnético produce un campo eléctrico y el movimiento acelerado de cargas eléctricas genera ondas electromagnéticas (como en las descargas de rayos que pueden escucharse en los receptores de radio AM).[7
HISTORIA DE LA ELECTRICIDAD:
La historia de la electricidad como rama de la física comenzó con observaciones aisladas y simples especulaciones o intuiciones médicas, como el uso de peces eléctricos en enfermedades como la gota y el dolor de cabeza, u objetos arqueológicos de interpretación discutible (la batería de Bagdad).[8] Tales de Mileto fue el primero en observar los fenómenos eléctricos cuando, al frotar una barra de ámbar con un paño, notó que la barra podía atraer objetos livianos.
En física y química, la teoría atómica es una teoría de la naturaleza de la materia, que afirma que está compuesta por pequeñas partículas llamadas átomos.
La teoría atómica comenzó hace miles de años como un concepto filosófico, y fue en el siglo XIX cuando logró una extensa aceptación científica gracias a los descubrimientos en el campo de la estequiometría. Los químicos de la época creían que las unidades básicas de los elementos también eran las partículas fundamentales de la naturaleza y las llamaron átomos (de la palabra griega atomos, que significa "indivisible"). Sin embargo, a finales de aquel siglo, y mediante diversos experimentos con el electromagnetismo y la radiactividad, los físicos descubrieron que el denominado "átomo indivisible" era realmente un conglomerado de diversas partículas subatómicas (principalmente electrones, protones y neutrones), que pueden existir de manera separada. De hecho, en ciertos ambientes, como en las estrellas de neutrones, la temperatura extrema y la elevada presión impide a los átomos existir como tales. El campo de la ciencia que estudia las partículas fundamentales de la materia se denomina física de partículas.
NACIMIENTO DE LA TEORIA ATOMICA MODERNA:
En los primeros años del siglo XIX, John Dalton desarrolló su modelo atómico, en la que proponía que cada elemento químico estaba compuesto por átomos iguales y exclusivos, y que aunque eran indivisibles e indestructibles, se podían asociar para formar estructuras más complejas (los compuestos químicos). Esta teoría tuvo diversos precedentes.
El primero fue la ley de conservación de la masa, formulada por Antoine Lavoisier en 1789, que afirma que la masa total en una reacción química permanece constante. Esta ley le sugirió a Dalton la idea de que la materia era indestructible.
El segundo fue la ley de las proporciones definidas. Enunciada por el químico francés Joseph Louis Proust en 1799, afirma que, en un compuesto, los elementos que lo conforman se combinan en proporciones de masa definidas y características del compuesto.
Dalton estudió y amplió el trabajo de Proust para desarrollar la ley de las proporciones múltiples: cuando dos elementos se combinan para originar diferentes compuestos, dada una cantidad fija de uno de ellos, las diferentes cantidades del otro se combinan con dicha cantidad fija para dar como producto los compuestos, están en relación de números enteros sencillos.
En 1803, Dalton publicó su primera lista de pesos atómicos relativos para cierta cantidad de sustancias. Esto, unido a su rudimentario material, hizo que su tabla fuese muy poco precisa. Por ejemplo, creía que los átomos de oxígeno eran 5,5 veces más pesados que los átomos de hidrógeno, porque en el agua midió 5,5 gramos de oxígeno por cada gramo de hidrógeno y creía que la fórmula del agua era HO (en realidad, un átomo de oxígeno es 16 veces más pesado que un átomo de hidrógeno).
La ley de Avogadro le permitió deducir la naturaleza diatómica de numerosos gases, estudiando los volúmenes en los que reaccionaban. Por ejemplo: el hecho de que dos litros de hidrógeno reaccionasen con un litro de oxígeno para producir dos litros de vapor de agua (a presión y temperatura constantes), significaba que una única molécula de oxígeno se divide en dos para formar dos partículas de agua. De esta forma, Avogadro podía calcular estimaciones más exactas de la masa atómica del oxígeno y de otros elementos, y estableció la distinción entre moléculas y átomos.
Ya en 1784, el botánico escocés Robert Brown, había observado que las partículas de polvo que flotaban en el agua se movían al azar sin ninguna razón aparente. En 1905, Albert Einstein tenía la teoría de que este movimiento browniano lo causaban las moléculas de agua que "bombardeaban" constantemente las partículas, y desarrolló un modelo matemático hipotético para describirlo.El físico francés Jean Perrin demostró experimentalmente este modelo en 1911, proporcionando además la validación a la teoría de partículas (y por extensión, a la teoría atómica).
La imprenta es un método industrial de reproducción de textos e imágenes sobre papel o materiales similares, que consiste en aplicar una tinta, generalmente oleosa, sobre unas piezas metálicas, llamadas tipos, para transferirla al papel por presion. Aunque comenzo como un metodo artesanal y muy veloz para su tiempos
El telégrafo es un dispositivo de telecomunicación destinado a la transmisión de señales a distancia. El de más amplio uso a lo largo del tiempo ha sido el telégrafo eléctrico, aunque también se han utilizado telégrafos ópticos de diferentes formas y modalidades funcionales.
El teléfono es un dispositivo de telecomunicación diseñado para transmitir señales acústicas por medio de señales eléctricas a distancia. Muy parecido al teletrófono.
Durante mucho tiempo Alexander Graham Bell fue considerado el inventor del teléfono, junto con Elisha Gray. Sin embargo Bell no fue el inventor de este aparato, sino solamente el primero en patentarlo. Esto ocurrió en 1876. El 11 de junio de 2002 el Congreso de Estados Unidos aprobó la resolución 269, por la que se reconocía que el inventor del teléfono había sido Antonio Meucci, que lo llamó teletrófono, y no Alexander Graham Bell. En 1871 Meucci sólo pudo, por dificultades económicas, presentar una breve descripción de su invento, pero no formalizar la patente ante la Oficina de Patentes de Estados Unidos
Los teléfonos celulares han revolucionado el área de las comunicaciones, redefiniendo cómo percibimos las comunicaciones de voz. Tradicionalmente, los teléfonos celulares se mantuvieron fuera del alcance de la mayoría de los consumidores debido a los altos costos involucrados. Como resultado, las compañías proveedoras de servicios invirtieron tiempo y recursos en encontrar nuevos sistemas de mayor capacidad, y por ende, menor costo. Los sistemas celulares se están beneficiando de estas investigaciones y han comenzado a desarrollarse como productos de consumo masivo.
La telefonía celular es un sistema de comunicación telefónica totalmente inalámbrica. Durante el desarrollo de este trabajo, se verá, como los sonidos se convierten en señales electromagnéticas, que viajan a través del aire, siendo recibidas y transformadas nuevamente en mensajes. A su vez, se especificarán y se compararán las diferentes tecnologías que seutilizan en dicho proceso.
Un teléfono satelital es un teléfono móvil que, a diferencia de los teléfonos celulares, se conecta directamente a un satélite de telecomunicaciones. La principal ventaja de utilizar un teléfono satelital es el de poder comunicarse desde lugares donde la telefonía fija o celular no tienen cobertura.
La primera red satelital en ofrecer el servicio de Telefonía Satelital un una unidad portable fue Inmarsat a través de sus equipos estandard M a principios de los años años 1990.
Un teléfono satelital tiene un tamaño comparable al de los dispositivos celulares de los años 1990, equipado con una antena generalmente plegable que debe extenderse antes de iniciar la llamada para poder marcar el número deseado.
Son equipos diseñados para comunicarse en áreas remotas, donde la infraestructura de telecomunicaciones es limitada ó inexistente. Ejemplos de ello son montañas, zonas de recreación alejadas, vuelos interoceanicos, mar abierto, casas de descanso, etc. Asimismo son de gran ayuda en situaciones de desastre donde la infraestructura de comunicaciones convencionales han sufrido daños.
La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia.
Esta transmisión puede ser efectuada mediante ondas de radio o por redes especializadas de televisión por cable. El receptor de las señales es el televisor.
La palabra "televisión" es un híbrido de la voz griega "tele" (distancia) y la latina "visio" (visión). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perski en el Congreso Internacional de Electricidad de París (CIEP).
El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en que se celebró en 1996 el primer Foro Mundial de Televisión en las Naciones Unidas
La radio (entendida como radiofonía o radiodifusión, términos no estrictamente sinónimos)[1] es una tecnología que posibilita la transmisión de señales mediante la modulación de ondas electromagnéticas. Estas ondas no requieren un medio físico de transporte, por lo que pueden propagarse tanto a través del aire como del espacio vacío.
Una onda de radio se origina cuando una partícula cargada (por ejemplo, un electrón) se excita a una frecuencia situada en la zona de radiofrecuencia (RF) del espectro electromagnético. Otros tipos de emisiones que caen fuera de la gama rayos infrarrojos, los rayos de RF son los rayos gamma, los rayos X, los uultravioleta y la luz
El gramófono (del griego gramma escritura y fonos sonido) fue el primer sistema de grabación y reproducción de sonido que utilizó un disco plano, a diferencia del fonógrafo que grababa sobre cilindro. Asimismo fue el dispositivo más común para reproducir sonido grabado desde la década de 1890 hasta finales de la década de 1980. Fue patentado en 1888 por Emile Berliner.
El cine (abreviatura de cinematógrafo), también llamado cinematografía, es la técnica que consiste en proyectar fotogramas de forma rápida y sucesiva para crear la impresión de movimiento, mostrando algún vídeo o película). La palabra cine designa también las salas o teatros en los cuales se proyectan las películas.
Etimológicamente, la palabra cinematografía fue un neologismo creado a finales del siglo XIX compuesto a partir de dos palabras griegas. Por un lado κινή (kiné), que significa "movimiento" (ver, entre otras, "cinético", "cinética", "kinesiología", "cineteca"); y por otro de γραφóς (grafós). Con ello se intentaba definir el concepto de "imagen en movimiento".
·WorldWideWeb, el primer navegador web, más tarde renombrado a Nexus.
·Una página web: documento o fuente de información, generalmente en formato HTML y que puede contener hiperenlaces a otras páginas web. Dicha página web, podrá ser accesible desde un dispositivo físico, una intranet, o Internet.
·Un sitio web, que es un conjunto de páginas web, típicamente comunes a un dominio o subdominio en la World Wide Web.
·Un servidor web, un programa que implementa el protocolo HTTP para transferir lo que llamamos hipertextos, páginas web o páginas HTML. También se le da este nombre, al ordenador que ejecuta este programa.
El e-mail es la aplicación más sencilla y más usada de Internet. Y la traducción de su nombre lo dice todo; es un servicio de correo electrónico en la red. Cualquier usuario podrá enviar y recibir mensajes a través de la red.
Las direcciones de correo electrónico son fáciles de identificar y están compuestas de tres partes: el nombre de la casillas, el identificador y el nombre del servidor; algo así: nombre@servidor.com
Una red de computadoras, también llamada red de ordenadores o red informática, es un conjunto de equipos (computadoras y/o dispositivos) conectados por medio de cables, señales, ondas o cualquier otro método de transporte de datos, que comparten información (archivos), recursos (CD-ROM, impresoras, etc.), servicios (acceso a internet, e-mail, chat, juegos), etc. incrementando la eficiencia y productividad de las personas.
Una red de comunicaciones es un conjunto de medios técnicos que permiten la comunicación a distancia entre equipos autónomos (no jerárquica -master/slave-). Normalmente se trata de transmitir datos, audio y vídeo por ondas electromagnéticas a través de diversos medios (aire, vacío, cable de cobre, cable de fibra óptica, etc.).
La directiva de «servicio universal» forma parte, junto con otras cuatro directivas («marco», «acceso e interconexión», «autorización» e «intimidad y comunicaciones electrónicas»), del «paquete sobre telecomunicaciones» ideado para refundir el actual marco regulador de las telecomunicaciones y hacer más competitivo el sector de las comunicaciones electrónicas.
Se entiende por servicio universal la obligación impuesta a uno o más operadores de redes y/o de servicios de comunicaciones electrónicas de suministrar, a un precio razonable, un conjunto mínimo de servicios a todos los usuarios, independientemente de su situación geográfica en el territorio nacional.