Bitelia

Bitelia


Eric Schmidt: “Sólo hubo una compañía que vio todo una década antes que nadie, Apple”

Posted: 07 Feb 2011 02:16 PM PST

Eric Schmidt, el actual CEO de Google hasta el mes de abril, momento en el que Larry Page pasará a ocupar el cargo, realizó este fin de semana una estupenda entrevista con motivo del 50 aniversario del diario Telegraph. Una extensa revisión del presente, pasado y futuro de la informática en la que Schmidt desgranó, a su modo de ver, los próximos 50 años, cómo será Google o la situación de la competencia. Un futuro bastante optimista que de alguna manera viene a constatar la posición que ocupa en la cima del iceberg, ya que cómo él mismo dice, poco importan los cambios estratégicos en las altas esferas de Google, lo importante es que se mantiene en el sitio y el lugar donde a cualquiera le gustaría encontrarse, Google como epicentro de los grandes cambios que asoman en el futuro. Os dejo su visión sobre los seis puntos sobre los que giró la entrevista: Facebook, Apple, privacidad, y el presente, pasado y futuro de la tecnología:

Facebook

Habría que diferenciar entre los conceptos. Google es una empresa de búsqueda, Facebook es una compañía de medios de comunicación social. Lo que ocurre es que la búsqueda se está convirtiendo en social. Facebook no es un competidor porque cuanta más gente utiliza Facebook, más gente utiliza Google. Es un neto positivo

Apple

Sólo hubo una compañía que vio todo una década antes que nadie, Apple. En los noventa (Sun, Microsoft, Novell, Cisco… ) eran fundamentalmente empresas de infraestructura en torno a las corporaciones, ahí estaba el dinero y casi no hubo uso de los consumidores, con la excepción de Apple, en la vida cotidiana de las personas. Las cosas cambiaron hace 10 o 15 años con el desarrollo de la web

Pasado, presente y futuro

Hace 50 años estábamos emocionados por la conversión de la televisión en blanco y negro a la televisión en color. Hace 15 años operábamos con un contexto de cálculo que era hasta 1.000 veces inferior al actual, con una creación de redes que no podía realizar los mapas de ahora, las búsquedas actuales , no podíamos obtener el hardware suficiente… La informática actual habla y trata de los consumidores y la información. El ascenso de Google, el aumento de Facebook o el de Apple indican y es una prueba de que hay un lugar para la informática como algo que soluciona los problemas a los que se enfrentan las personas todos los días… Dentro de 50 años seguramente volveremos atrás y pensaremos que la tecnología actual era como la televisión en blanco y negro y pensaremos ¿por qué no se podían hacer estas cosas de hoy?

Privacidad

Estamos reforzando mucho este apartado. Los abogados nos asesoran para tomar las decisiones. Cuando lanzamos los productos tenemos que ser sensibles a las cuestiones de reglamentación y de la intimidad de las personas. Intentamos que el resultado salga del equilibrio entre ingenieros y abogados que nos marcan los límites. Queremos evitar las batallas legales. Creo que forma parte de nuestros intereses y espero que en los intereses de los organismos se esté el hacer un rápido análisis de las cuestiones suscitadas por algunos competidores, que esperamos que sean menores o que no estén en lo cierto

Eric Schmidt: “Sólo hubo una compañía que vio todo una década antes que nadie, Apple” escrita en Bitelia el 7 February, 2011 por miguel-jorge
Enviar a Twitter | Compartir en Facebook



[Descarga del día] Alexandria, gestiona los libros de tu biblioteca digital

Posted: 07 Feb 2011 01:03 PM PST

Descarga del día

Los dispositivos lectores de libros electrónicos están en boca (o en manos) de todos. Bien sea para discutir su elevado precio o para hablar sobre qué modelo es el mejor y sobre las prestaciones que éste o aquel dispositivo ofrece. Tinta electrónica, LCD, batería, funciones… todo es motivo de discusión, incluso si las propias editoriales ofrecen o no su catálogo para éstos gadgets.

Pero lo que sí queda claro es su centro, su función, para qué han sido concebidos: para leer. Y en esto estamos. Con uno, dos o decenas de libros nuestro orden puede ser más o menos sencillo y fácil. Cuando nuestra biblioteca va aumentando a niveles de tres cifras ya necesitamos apoyo para encontrar lo que buscamos y saber lo que hemos leído, lo que nos gusta, de qué trata… y ahí es donde entra Alexandria.

Alexandria es un software para organizar y catalogar nuestra colección de libros electrónicos. Escrito en Ruby y con licencia GNU/GPL v2 nos permite organizar nuestros eBooks por autores, títulos, editorial… e incluso crear lista de aquellos que nos gustaría tener, los que hemos leído o los que nos han gustado más marcarlos como favoritos.

Alexandria

Alexandria posee capacidades avanzadas como la búsqueda de portadas en las tiendas más populares (Amazon, Poxis..) o incluso en el ministerio de cultura Español.

Por supuesto soporta también todos los formatos más populares y conocidos así como la importación y exportación del libros a nuestros dispositivos.

Sencillo y útil.

Información básica:

  • Plataforma: Windows/Linux/Mac
  • Licencia: Open Source
  • Precio: GNU/GPL v2
  • Enlace de descarga: Alexandria

[Descarga del día] Alexandria, gestiona los libros de tu biblioteca digital escrita en Bitelia el 7 February, 2011 por Diego Fraga
Enviar a Twitter | Compartir en Facebook



AOL compra el Huffington Post por 231 millones de dólares

Posted: 07 Feb 2011 11:48 AM PST

AOL, el gigante de las comunicaciones ha decidido hacerse con el Huffington Post. Éste movimiento está precedido por otros de las mismas características como la compra de TechCrunch nos muestra como AOL intenta posicionarse como el número uno en medios digitales a nivel mundial.

La compra de este periódico/blog líder de contenidos y visitas con un nivel de visitas similar al New York Times posiciona a AOL dentro del ojo del huracán mediático 2.0. Aunque todavía están por conocer muchos de los detalles de la compra, parece ser que (según puedo leer en el propio Huffington) coexistirán ambas entidades haciendo aún más fuerza en la información y la calidad.

Desde luego un proyecto que nació en 2005 que, en tan sólo 6 años, llegue a 24 millones de usuarios únicos mensuales hace que nos planteemos (y algunos grandes diarios deberían hacerlo también, pensar) que la forma en la que consumimos información está cambiando a pasos de gigante que se encaminan hacia la web y lo digital.

231 millones puede parecer mucho dinero (y lo es) pero si tenemos en cuenta que éste grande de la información está intentando convertir su empresa en un agregador de noticias mundial y masivo tiene que hacerse con las principales fuentes, sin descuidar sus propietarios. Blogs, diarios, otros agregadores… todo forma parte de una gran bola de información en la que AOL quiere tener “la más grande”.

Por ahora van por buen camino, esperemos que se consolide y, quizá, otra gran empresa hará algo similar de habla hispana.

AOL compra el Huffington Post por 231 millones de dólares escrita en Bitelia el 7 February, 2011 por Diego Fraga
Enviar a Twitter | Compartir en Facebook



Microsoft Office Web Apps continúa su expansión

Posted: 07 Feb 2011 10:31 AM PST

Si a principios de diciembre os contaba como Microsoft Office Web Apps, el conjunto de aplicaciones web basadas en Microsoft Office y competencia directa de Google Docs, era lanzado en 15 países adicionales incluido España, ahora hay que añadir un cero a la cifra ya que desde hace unos días el servicio está disponible para la friolera de 150 nuevos países.

Entre los nuevos países se encuentran, por ejemplo, México, Filipinas, Israel o Tailandia, desde los cuales ahora los usuarios de Windows Live que allí residan podrán editar, crear o compartir documentos tan sólo con una conexión a internet y su navegador web.

Las notas al respecto pueden leerse de nuevo en el blog oficial de Office Web Apps, donde además nos informan de que en marzo se completará el proceso de lanzamiento global y las Web Apps estarán por fin disponibles en todo el mundo, incluyendo países de América central y del sur como Argentina, Chile o Brasil.

Cabe destacar que hace tan solo 8 meses desde que Office Web Apps fuera lanzado, y dentro de uno completarán un ciclo de lanzamientos que comenzó limitado tan solo a Estados Unidos, Canadá y Reino Unido.

Microsoft Office Web Apps continúa su expansión escrita en Bitelia el 7 February, 2011 por Randal
Enviar a Twitter | Compartir en Facebook



uTorrent ya dispone de remoto oficial para Android

Posted: 07 Feb 2011 09:14 AM PST

A mediados del año pasado os anunciábamos el lanzamiento de uTorrent Web, versión web del famoso cliente P2P que permite acceder al contenido de nuestros torrents vía streaming desde la propia página web de uTorrent. En dicho artículo os hablábamos de que la página ya estaba adaptada para iPhone, iPad y Android, pero es ahora cuando BitTorrent anuncia el lanzamiento de una aplicación específica para Android: uTorrent Remote.

uTorrent Remote viene de forma oficial de la mano de la propia BitTorrent, que como sabéis es la encargada del desarrollo del conocido cliente para el protocolo P2P del mismo nombre, y permite a los usuarios de este añadir, eliminar y controlar descargas de manera remota, a través de la nube, sin necesidad de abrir el navegador.

Aunque la aplicación no esta atada a ninguna versión específica, sólo se puede utilizar con la nueva versión 3.0 Alpha que por el momento es la única que cuenta con uTorrent Web, y es precisamente ahí donde reside su potencia.

Si bien acceder a nuestros torrents era posible desde hace años, para ello habría que habilitar Web UI, la interfaz web del cliente. La principal diferencia entre la famosa Web UI y uTorrent Web es que esta última nos permite acceder a nuestras descargas directamente desde Internet y sin necesidad de servir la página. Esto propicia toda clase de ventajas, sobre todo en materia de seguridad, pero también en comodidad ya que no hace falta configurar el NAT de nuestro router, es uTorrent el que se comunica con la nube.

Otra de las características que me ha gustado es que la extensión .torrent se asocia a uTorrent Remote, con lo que para añadir nuevas descargas solamente tenemos que abrir el vínculo al archivo como lo haríamos en nuestro ordenador.

uTorrent Remote ya se encuentra disponible en el renovado Android Market.

uTorrent ya dispone de remoto oficial para Android escrita en Bitelia el 7 February, 2011 por Randal
Enviar a Twitter | Compartir en Facebook



EE.UU dispone de herramientas secretas para restaurar Internet bajo dictaduras

Posted: 07 Feb 2011 08:03 AM PST

En un claro mensaje a los acontecimientos ocurridos en Egipto y con una clara alusión a otros países (llámese China o Irán), Wired destapa la exclusiva de la capacidad estadounidense de restaurar Internet si en algún punto del globo fuera o se intentará “desconectar” bajo un régimen dictatorial. Se trata de una tecnología que obligaría a “conectar” a toda una población que hubiese sufrido ese “apagón”. La figura que hay detrás de esta primicia tiene nombre, John Arquilla, profesor de la Escuela Naval de Posgrado, quién resume un único inconveniente para que esta tecnología no haya sido utilizada antes: “podría considerarse como un acto de guerra”.

¿Cómo funciona esta tecnología? Hace unos días os contábamos las diferencias actuales entre filtrar, cerrar o bloquear Internet y la imposibilidad actual de que se desconecte la red a nivel global. En este punto, supongamos un caso en el que una población sufriera el corte parcial de Internet, una desconexión que eliminara en un espacio de un país la posibilidad de entrada y salida de datos y la comunicación de sus habitantes al mundo exterior. Bien, dado este caso, y si Estados Unidos se mostrara contrario a la actitud adoptada por el régimen, gobierno o dictadura que hubiese ordenado la acción, el ejército estadounidense tiene una segunda opción antes de entrar en conflicto. De la misma forma que puede ejecutar la interrupción online de un bando hostil, también la puede recuperar en el momento que crea oportuno, al menos en el espacio aéreo en el que se haya producido el corte.

Tal y como cuenta Arquilla, si pensamos que a través del avión Commando Solo, un avión de carga modernizado que se encuentra en el Centro de difusión de las Fuerzas Aéreas, se puede emitir y llevar a cabo operaciones en AM y FM para la radio, y UHF y VHF para la televisión, otro avión clasificado del que no quiere dar ningún nombre, puede realizar las labores de restauración en un espacio negado a las redes, es decir, que el avión pude sobrevolar un espacio aéreo donde había un corte de red y restaurar el espacio con wifi a plena capacidad. En muchos casos, el propio ejército norteamericano ya ha utilizado sus aviones como relés de comunicaciones en lugares como Afganistán. Arquilla lo cuenta así:

Tenemos satélites preparados para lo que pueda venir y ofrecer puntos de acceso para que la población vuelva a estar online. Gran parte de esta tecnología se realiza desde los barcos. Sería como una versión cibernética de la radio pirata

Se habla también del proyecto FastCom, un esfuerzo que están realizando varios compañías en conjunto para conectar las redes en el interior de un avión no tripulado, de esta manera el avión podría realizar largas horas de vuelo mientras mantiene la conexión y los datos sin la fatiga de un piloto en vuelo. Una especie de actualización de los famosos y muy criticados Drones (aviones utilizados en Estados Unidos sin necesidad de pilotos para conflictos) y que podrían llegar a conseguir cobertura 3G con un radio de pocos kilómetros sobre el terreno.

Aún así, existen varios problemas que se le plantean a una tecnología así. En primer lugar, el uso de estos aviones con emisión de radio-frecuencias son muy fáciles de detectar por cualquier mínima defensa anti-aérea actual. Por otro lado, los dispositivos receptores deben ser capaces de “conectar” y hablar con el teléfono y la señal de datos y dado que generalmente (caso de Egipto o Afganistán) los teléfonos compatibles podrían darse el caso de ser de contrabando, no funcionarían. De todas formas, Arquilla recuerda que todo es hipotético hasta que no ocurra un caso así, no se puede aventurar nada. En Egipto, Estados Unidos no ha actuado de esta manera ni ha forzado ningún tipo de restauración de la red porque, hasta este momento, Egipto era y es un aliado, pero no creo que a nadie le sorprenda si pensamos que Estados Unidos podría apagar y restaurar zonas “hostiles” si lo necesitase…

EE.UU dispone de herramientas secretas para restaurar Internet bajo dictaduras escrita en Bitelia el 7 February, 2011 por miguel-jorge
Enviar a Twitter | Compartir en Facebook



Al Jazeera y Twitter o cómo ganarle la partida a la “censura” de EEUU

Posted: 07 Feb 2011 06:45 AM PST

El papel de la cadena de noticias Al Jazeera desde que comenzaron las revueltas en Egipto marca un punto de inflexión en el resto del mundo. La necesidad de obtener información de un medio con la mejor infraestructura sobre el terreno para informar, hace de esta cadena, hoy más que nunca, una fuente única y necesaria. Esto lo saben también en Estados Unidos, pero por encima de cualquier opinión o necesidad de difusión, en Estados Unidos y sus sistemas de distribución de televisión por cable imperan motivos derivados de la política, motivos principalmente económicos. Ante esta situación, la cadena con sede en Qatar acaba de dar una lección aprovechando los medios en la red.

A nadie le extraña que actualmente exista un veto (no escrito) sobre la cadena, una censura por parte de las compañías de cable que suponen una pérdida de información para pueblo estadounidense, que en la mayoría de los casos deben acudir a Internet para conseguir la versión inglesa de Al Jazeera. Por otra parte, las cadenas están en su derecho de no dar entrada a ninguna competencia o emitir la señal de ella, pero en este caso quizá se trata de una censura corporativista, ya que aunque prácticamente ninguna cadena emite la señal (algo que se podría entender), nadie la ha contratado, algo que quizá es lo más extraño de todo, más teniendo en cuenta su repercusión actual. Se puede ver a través de sistemas como Roku, un dispositivo que transmite Internet en el televisor, pero no a través de lo que hoy podríamos entender por las vías tradicionales.

Entre otras cosas, Al Jazeera no sólo ha evolucionado en los últimos tiempos en su propia infraestructura como medio de comunicación, sino que su posición en el conflicto de Egipto ha resultado ser la más valiente y consecuente con los acontecimientos. En un movimiento sin precedentes, la propia cadena liberó la cobertura que ofrecía con licencias Creative Commons, ofreciendo de manera gratuita los vídeos y fotografías del conflicto para su libre distribución y difusión.

Twitter aliado contra la censura

La mayoría de las noticias que han ido surgiendo no tenían feedback en Estados Unidos. Quizá el propio conflicto y la manera en la que el pueblo y las tecnologías han reaccionado le dieron a la propia cadena la idea para introducirse en el mercado estadounidense. Twitter demostró en ese momento que aunque el pueblo no obtuviera Internet a través de la banda ancha, existían otras fórmulas para hacer llegar la información.

De esta manera, Al Jazeera ha comenzado a potenciar su visibilidad en Estados Unidos a través de Twitter (y Twitter obtiene ingresos de ello) y sus herramientas de promoción. ¿Cómo? Utilizando los Promoted Tweets y el Promoted Trending Topic #DemandAlJazeera para su difusión. Un movimiento que, a expensas de ver cómo se desarrolla y lo “adoptan”, resulta una jugada magistral. Incluyendo vídeos desde la web en su versión inglesa o la posibilidad de obtención del siguiente banner desde la misma para introducirlo en otras webs o blogs.

Se trata del segundo medio que utiliza las herramientas de Twitter para promover sus contenidos. El primero en utilizarlo fue el Washington Post para el día de las elecciones, aunque a diferencia de éste, Al Jazzera no promociona una cobertura, sino toda la cadena y sus noticias. El siguiente paso que ha dado la cadena ha sido la promoción de #demandaljazeera con Tweets como el siguiente:

Al igual que nuestra cobertura de # Egipto? ¿Crees que deberíamos mostrarnos en la televisión de los EE.UU.? Es hora de # http://aje DemandAlJazeera. me / demandAJ

Además, la cadena en su versión inglesa ha potenciado su actividad en Twitter con la inclusión de la compra de los Tweets promocionados en los hashtags principales en torno a Egipto (#Egipto, #Mubarak, #EGIPTO… )

Lo más ingenioso de todo es el resultado de realizar un click sobre uno de sus Tweets promocionados. Ante la imposibilidad de acceder a una cadena estadounidense donde emitan la señal de Al Jazzera, el ciudadano norteamericano se le remitirá a una página donde se le pide introducir el código postal, solicitando la entrada de Al Jazeera en los canales disponibles. Un mensaje que dice así:

Estamos actualmente en más de 100 países y cerca de 140 millones de hogares en todo el mundo. Al Jazeera en inglés es una poderosa red ganadora de premios que ofrece un cobertura sin igual de algunos de las más importantes, y poco frecuentadas por los medios, regiones en el mundo. Como suscriptor de Comunicaciones de Comcast en San francisco CA, solicito que se agrege Al Jazeera en su versión inglesa a la lista de canales

Un movimiento de ingenio y utilización de los medios disponibles al servicio de un canal que, como decía, evoluciona a un nivel muy por encima de la mayoría de medios. Queda claro también que Twitter es simplemente la herramienta, pero también saca “tajada” de la operación, ya que el montante de la cadena para su promoción en la red no es gratuita ni mucho menos. Quizá la pregunta final queda aún en el aire ¿Por qué no existe distribución para Al Jazzera en las cadenas de cable de Estados Unidos? Y aunque sería muy fácil decir que por pura competencia o simplemente porque a las cadenas no les da la gana, los estudios y la evolución de las últimas acciones en Twitter demuestran que el ciudadano sí quiere saber lo que ocurre, y quizá a las cadenas no. La gran objetividad con la que se narran las informaciones puede ser precisamente un arma de doble filo para Al Jazeera.

Foto: Quora

Al Jazeera y Twitter o cómo ganarle la partida a la “censura” de EEUU escrita en Bitelia el 7 February, 2011 por miguel-jorge
Enviar a Twitter | Compartir en Facebook



La transición de IPv4 a IPv6, lo que necesitas saber

Posted: 07 Feb 2011 04:17 AM PST

logoipv6

La semana pasada, la IANA entregó el último lote de direcciones IP, 33 millones, que quedaban disponibles a la APNIC (la organización que se encarga de distribuirlas en la región Asia-Pacífico). Esto quiere decir que se termina el stock de direcciones IP que quedaban libres y, por tanto, cada organismo de gestión, de los cinco que hay, tendrá que utilizar las reservas que les quedan, que se estima que nos permitirá llegar hasta el mes de septiembre de este mismo año, y después ¿qué? ¿nos enfrentamos al fin de internet?.

Ni mucho menos, parece que no nos enfrentamos a ningún tipo de apocalipsis de dimensiones épicas, ni tampoco a la histeria que se generó con el famoso efecto 2000, en el que nos anunciaban, básicamente, la parálisis total de muchos de los sistemas del planeta. En esta ocasión nos enfrentamos a la migración hacia un nuevo protocolo, es decir, abandonaremos IPv4 (Internet Protocol versión 4, definido en la RFC 791) y adoptaremos IPv6 (Internet Protocol versión 6, definido en la RFC 2460).

Y ¿por qué este cambio?, pues si el efecto 2000 provenía de un error de diseño (codificar la fecha en dos dígitos sin pensar en un cambio de milenio), se podría decir que, salvando un poco las distancias, IPv4 proviene de una suposición que al final acabó quedándose corta, aunque también es verdad que en esa época era complicado pensar en la revolución de Internet y en la cantidad de dispositivos conectados a la red.

IPv4 se basa en un pool de direcciones codificadas en 32 bits, por tanto, 4.294.967.296 direcciones de las cuales, un grupo bastante elevado se encuentra destinado a redes de área local, con lo que empieza a acotarse un poco el campo. Además, existen otros factores que han contribuido a desperdiciar este, ya escaso, recurso:

  • En sus orígenes, nunca se pensó en el descomunal crecimiento que iba a tener Internet, por lo que se asignaron bloques muy grandes de direcciones (las conocidas como clase A, con 16 millones de direcciones) a países, empresas y universidades. Por ejemplo, al principio, existían corporaciones que tenían reservadas más direcciones IP que Japón o que todo el continente Africano, como el MIT, Ford o IBM.
  • Las grandes corporaciones y organismos que en los años 80 obtuvieron paquetes de direcciones de clase A, al final, nunca las han utilizado todas ni tampoco han devuelto las sobrantes. Han seguido tilizando direcciones públicas para equipos que no son accesibles fuera de sus redes locales.
  • Otro problema era el tema de la división de un rango de direccionamiento en subredes más pequeñas, puesto que al dividir, la primera y última dirección resultantes no son utilizables, además de que las divisiones deben hacerse en números que sean potencia de 2, por lo que, normalmente, se acaban quedando direcciones libres que no son utilizadas.

ComputerNetwork

Además, la propia evolución tecnológica ha contribuido al agotamiento de direcciones, básicamente por:

  • Al principio, las conexiones de datos estaban basadas en módems, por tanto, no eran persistentes y no necesitaban un direccionamiento fijo para cada cliente, sin embargo, la inclusión de líneas dedicadas y la explosión de la banda ancha han provocado que, prácticamente, cada hogar conectado a la red necesite de una IP pública.
  • Además, la telefonía móvil, la inclusión de servicios de datos y la rápida penetración de los smartphones ha incrementado, exponencialmente, la necesidad de direcciones IP.

Realmente, todo esto era impensable en los años 70 para Vinton ‘Vint’ G. Cerf y Robert Elliot Kahn, los considerados padres de Internet. Vint Cert, que es el Chief Internet Evangelist de Google y presidente de la ICANN, recientemente, en una entrevista para el Sidney Morning Herald comentó que:

Pensé que era un experimento y que 4.300 millones direcciones serían suficientes. ¿Quién diablos sabía cuántas direcciones se necesitaban? Esto no significa que Internet se pare, simplemente significa que no se ha construido muy bien

Vale, pues entonces si uno de los padres de Internet dice eso, entonces, la situación es peor de lo que parecia, ¿no?. Pues no, desde hace bastante tiempo se ha trabajado en la evolución hacia IPv6 que parte con una base de direcciones que va a ser complicada de agotar. IPv6 llega con direcciones codificadas en 128 bits, es decir, 340.282.366.920.938.463.463.374.607.431.768.211.456 de direcciones (67 mil billones de direcciones por cada milímetro cuadrado de superficie del planeta), lo cual es de suponer que nos de sufiente margen de maniobra durante bastante tiempo. ¿El problema actual?, la transición a IPv6, que no será un proceso inmediato ni tan simple como pulsar un botón que conmute al nuevo protocolo.

No es que haya que alarmarse pero no hay que dormirse. La prueba de fuego la veremos en el mes de junio, concretamente, el día 8, que es el World IPv6 Day, es decir, el día en el que Yahoo!, Facebook, Bing, Akamai o Google, durante 24 horas, pondrán sus servicios disponibles bajo IPv6 para comprobar que todo marcha correctamente y, que esta transición, apenas afecta a los usuarios.

Y digo apenas afectará a los usuarios porque, a pesar de que la mayoría de sistemas operativos soportan IPv6, es posible que algunos usuarios tengan que modificar el firmware de sus routers, algunas empresas tengan que revisar su red, etc, aunque esto no será un apagón total, si no una transición progresiva en la que convivirán ambos servicios.

De hecho, ya están conviviendo ambos sistemas desde hace tiempo:

  • El gobierno de los Estados Unidos ordenó el despliegue de IPv6 en sus agencias federales en el año 2008
  • NIC México desde agosto de 2005 permite la utilización de direcciones IPv6 en sus sistemas y desde Marzo de 2009 opera servidores de DNS que soportan IPv6 para los dominios .mx
  • YouTube está preparado con IPv6 desde hace 4 ó 5 año al igual que Facebook o Google
  • Durante la Campus Party de Brasil del pasado mes de enero, Telefónica realizó pruebas de IPv6

Esquema de red

Aunque, de todas formas, a IPv6 le queda bastante rodaje y, mucho me temo, que esta transición va a ser larga en el tiempo, algunos estiman dos años, y no estará libre de bugs y parches. De hecho, los usuarios tendremos que mantener, durante esta coexistencia, ambos protocolos activados (doble-pila) para acceder a los servicios que no tengan IPv6, y que sigan funcionando con IPv4.

Aún así, el día de las pruebas de IPv6, no sólo los grandes de Internet tendrán que estar preparados, los ISPs y las empresas también deberían estarlo. Yahoo ha calculado que perderá 1.000.000 de usuarios el día de las pruebas, simplemente, porque alguno de los eslabones de la cadena no haya hecho los deberes (por eso las pruebas sólo durarán un día).

Por cierto, además de una fuente inagotable de direcciones disponibles, IPv6 nos ofrecerá mayor seguridad (IPsec, es obligatorio en IPv6) y nos ofrecerá una mejor protección frente nivel de a ataques "por fuerza bruta". Además, facilitará la gestión mediante la autoconfiguración (que nos podría liberar de los servidores de DHCP) y agregar mecanismos de calidad de servicio, mediante flujos de tráfico.

En definitiva, que durante un par de años ambos servicios coexistirán, los usuarios finales prácticamente serán los últimos en migrar y la mayor parte del trabajo será para las empresas proveedoras de servicios. Lo que algunos han llamado el IPv4 ARPAgeddon, o el IPocalypse, no creo que sea un colapso total de Internet, si bien es cierto, que los que los servicios que no hayan trabajado para esta transición, puede que terminen teniendo fallos y tengan que invertir, más dinero, en restablecer sus servicios y adaptarse.

Imágenes: ALT1040, GreenIT y Lukasz Tomicki

La transición de IPv4 a IPv6, lo que necesitas saber escrita en Bitelia el 7 February, 2011 por jjvelasco
Enviar a Twitter | Compartir en Facebook



Hello English OS!: la distribución para aprender Inglés

Posted: 07 Feb 2011 03:02 AM PST

HEOS! desktop

En la red tenemos disponibles gran cantidad de recursos con los que mejorar nuestros conocimientos y aprender nuevos idiomas. En el caso que estemos centrados en el aprendizaje del Inglés, dentro de los recursos disponibles, tenemos a nuestra disposición de una distribución Linux, basada en Ubuntu, centrada en el aprendizaje del idioma de Shakespeare y que incluye una interesante colección de aplicaciones libres tanto para profesores como alumnos, así como contenidos bajo Creative Commons.

HEOS!, que así se llama este sistema operativo, está orientado hacia un público más bien infantil, aunque los contenidos están clasificados por edades, por tanto, se prima el aprendizaje frente al estudio, básicamente porque los contenidos son más prácticos que teóricos. Esta distribución pone a disposición, de profesores y alumnos, una extensa colección de juegos, podcasts, revistas, e-books (para leer con Calibre) y vídeos con los que aprender y practicar vocabulario y gramática. Además, encontraremos viejos conocidos en las aulas, como Jclic (con ejercicios procedentes del gobierno de Extremadura y de la Generalitat de Cataluña), iTALC (un control de puestos), entre otras aplicaciones.

Pensando en el aula, además de las aplicaciones de control de puestos, el sistema tiene previsto soportar plataformas de e-learning, como por ejemplo Moodle, permitiendo el acceso al alumno a todavía más recursos formativos y facilitando a los docentes la gestión y distribución de estos contenidos.

El sistema está basado en Ubuntu 10.10 y aunque HEOS! aún esté en fase temprana, me parece un proyecto muy interesante y al que le deseo una larga, y fructífera vida. Vale la pena descargarlo y echarle un vistazo porque la idea es bastante buena. De hecho, creo que es de las pocas distribuciones orientadas a la educación con una temática tan específica porque hasta ahora estábamos acostumbrados a distribuciones orientadas hacia el sector educativo pero con una temática general, como Edubuntu o Qimo 4 Kids, o bien, distribuciones muy específicas y adscritas a los propios sistemas educativos (GuadalinexEdu o LinEx colegios).

Vía: Un Blog en Red

Hello English OS!: la distribución para aprender Inglés escrita en Bitelia el 7 February, 2011 por jjvelasco
Enviar a Twitter | Compartir en Facebook



Facebook identifica el spam en los comentarios

Posted: 07 Feb 2011 01:44 AM PST

El spam está prácticamente en todos los servicios de Internet, pero en Facebook resulta mucho más efectivo debido a que las personas confían en los anuncios y la moderación queda en manos de los usuarios. Pero esto está por cambiar, porque la red social está probando filtros automáticos para los comentarios.

La característica apareció silenciosamente para un grupo limitado de administradores de páginas, quienes ven las posibles publicaciones no deseadas de los fans, marcadas con un fondo gris. Estas son mostradas sólo al creador de la página y otros autorizados, quienes deben quitar la marca de spam para que sean visibles públicamente, un comportamiento similar al que poseen herramientas como Akismet.

Hasta ahora, hubo poco empeño de la compañía para evitar este problema, que es muy frecuente en los grupos y páginas más concurridas. Apenas es posible acceder a una pestaña especial donde se muestran los comentarios denunciados, pero siempre con intervención manual. Este nuevo mecanismo simplifica la tarea, en especial para quienes no se ocupan demasiado de mantener su página.

Como todo servicio de este tipo, ajustar los detalles lleva un buen tiempo. Por eso, a veces detecta correctamente los mensajes publicitarios, pero también encuentra falsos positivos. Para que tengan una idea, los filtros de WordPress llevan años en funcionamiento y todavía cometen algunas equivocaciones.

Si bien hay muchas páginas creadas por pura diversión, existen otras para organizar interesantes campañas que suelen quedar opacadas a raíz del spam. Esta novedad seguramente ayudará a mejorar la relevancia de los comentarios, un objetivo que también persiguen otros planes de la red social. Sería interesante que, en un futuro, se extienda a otros sectores del sitio.

Facebook identifica el spam en los comentarios escrita en Bitelia el 7 February, 2011 por Sebastián
Enviar a Twitter | Compartir en Facebook



Tags :

No hay comentarios:

Publicar un comentario

Con la tecnología de Blogger.

Instagram

Advertisement

Featured Video

Featured Video

Sponsor

Video Of Day