Nunca es demasiado tarde para aprender a tocar el piano

Víctor Ayala G.
viktorayala@gmail.com

Tras unas largas vacaciones estamos de vuelta. Este escrito está dirigido para aquellas personas que quieren empezar a conocer o experimentar algo nuevo en sus vidas. Algo que les ha estado inquietando y que quieran adentrarse en el mundo de las tecnologías.

Y se me ocurrió porque una nicaragüense radicada en EEUU, ya retirada y en silla de ruedas, me dijo que quería comprar una computadora y aprender. Es decir, iniciar de cero. ¿Se imaginan tal aventura? Como subir el Everest solo.

Cuando me planteó su idea me pidió que le cotizara una buena computadora, que tenía el dinero para comprarla.

Entonces se me vino a la mente la imagen de aquél video del niño que aún no camina y que sus padres le pusieron una tablet y él con sus pequeños dedos empezó a pasar pantalla tras pantalla sin mucha dificultad. Luego le pusieron una revista y el niño no le pudo dar vuelta a una sola página y con sus deditos repetía las acciones como con la tablet.

¿Qué diferencia hay entre un niño y un adulto bastante mayor? Mucha. La edad. Pero casi ninguna en cuestiones de aprender algo nuevo. El cerebro de un niño es una esponja. El de un adulto no es torpe, es más inteligente porque solo capta lo necesario, lo importante, según dicen los estudiosos. Ya no le interesa lo banal sino lo indispensable.

¿Qué hacer? ¿Por qué gastar tanto dinero en una computadora moderna si no la iba a ocupar mucho tiempo? Le pregunté si tenía teléfono celular y me dijo que sí, uno viejito pero sí, lo tenía. ¡Era un Android!

Entonces le recomendé una tablet. O mejor una Phablet porque así podía incluso hablar por teléfono con sus amistades y familia desde la tablet.

Una computadora está concebida hoy en día para procesos pesados de oficina. Una tablet jamás haría ese trabajo. Las tablet ahora son icónicas por su uso sencillo, su interfaz gráfica intuitiva similar al de un smartphone y se salta el proceso en el aprendizaje de un sistema operativo (aunque lo tienen como el Android de Google o el iOS de Apple), el uso de un Mouse o tablero. Es tedioso para un adulto aprender desde una computadora.

Recuerdo que hace algunos años cuando apenas las tablet asomaban tras bastidores de la interfaz de un celular, que unos señores tenían su computadora y querían aprender su uso. No pudieron y no pudieron ni aprender a mover el cursor de un ratón. Dos años después no se le dificultó usar una tablet y ahora son unos “expertos” en las redes sociales.

Es que, a como está concebido ahora el uso de un equipo inteligente que es para tareas básicas como conectarse a Internet, navegar por las redes sociales o enviarse mensajes, subir una foto, o cualquier otra cosa sencilla. ¿Para qué comprarse una computadora? Excepto si la quiere para trabajar desde la casa, redactar documentos, imprimirlos u otras tareas más de oficina.

Es por eso que las ventas de computadoras de escritorio y notebook han bajado increíblemente en los últimos seis años en comparación con las tablets que han crecido exponencialmente. Desde 2010 se venía manejando que esta tendencia así sería en el futuro. Y lo es.

Otro asunto a tomar en cuenta es que las Chromebook es el futuro alterno a las PC. Últimamente la venta de computadoras ha tenido un pequeño crecimiento debido a las computadoras de Google, las Chromebook, que se han afianzado bastante en las escuelas de Estados Unidos y que poco a poco comienzan a conquistar el sector empresarial, por lo que el futuro de las PC puede estar en las Chromebook y dispositivos similares.

La clave es el bajo precio, sencillez de uso y en su suficiencia para las tareas del usuario promedio.

No se puede negar que las computadoras siguen siendo la herramienta de trabajo y entretenimiento para gamers o profesionales en diseño, arquitectura o programación, que no podrán igualar la experiencia con una tablet, iPad o smartphone.

La señora se decidió al final a comprar una phablet y dedicó el resto del dinero para irse al casino. Ese día ganó, según me dijo, y la phablet le salió gratis.

Tampoco le costó nada aprender a manejarla y puede hacer todo lo que ella realmente necesita. Ahora está en proceso de adquirir una “Google Home” para dar órdenes con la voz y ahorrarse aún más las dificultades.

Aprender a tocar piano a una mayor edad, no es tan difícil como era antes.

PC NEGOCIOS

Intel: Chip de autoaprendizaje  aceleraría la inteligencia artificial
  • Opinión: Imagine un futuro en donde las decisiones complejas puedan tomarse con más rapidez y adaptarse a lo largo del tiempo. Un futuro en donde los problemas de la sociedad y de la industria se puedan resolver de forma autónoma usando para ello experiencias aprendidas

Michael Mayberry*
Especial para INFORMÁTICA

Estamos hablando de un futuro en donde los primeros intervinientes –usando aplicaciones para reconocimiento de imágenes –pueden analizar imágenes de cámaras tomadas con alumbrado público y resolver rápidamente casos de personas desaparecidas o secuestradas.

Un futuro en donde los semáforos se ajustan automáticamente para sincronizar el flujo de tráfico, reduciendo los embotellamientos y optimizando las paradas y los arranques.

Un futuro donde los robots son más autónomos y donde la eficiencia del rendimiento se incrementa en gran medida.

Una mayor necesidad de recopilación, análisis y toma de decisiones utilizando para ello datos naturales, no estructurados y muy dinámicos está impulsando la demanda de un tipo de informática que puede dejar atrás las arquitecturas clásicas basadas en CPU y GPU.

Para mantener el ritmo de la evolución de la tecnología y para impulsar la informática más allá de los PC y los servidores, Intel ha colaborado durante los últimos seis años en el desarrollo de arquitecturas especializadas que pueden acelerar las plataformas informáticas clásicas. Ha realizado recientemente más inversiones en I+D para inteligencia artificial (AI) y en informática neuromórfica.

Creemos que la AI se encuentra en su fase inicial y que más arquitecturas y métodos –como el chip Loihi –van a seguir surgiendo para elevar el nivel de la AI. La informática neuromórfica se inspira en el conocimiento actual de la arquitectura cerebral y de sus cómputos asociados. Las redes neuronales del cerebro obtienen información mediante impulsos eléctricos o potenciales de acción de actividad eléctrica, y modulan las fuerzas sinápticas o el peso de las interconexiones basándose en la duración de estos potenciales de acción, guardando estos cambios de forma local en las interconexiones. Las conductas inteligentes surgen de las interacciones cooperativas y competitivas entre múltiples zonas dentro de las redes neuronales del cerebro y de su entorno.

Los modelos de aprendizaje automático han experimentado grandes avances en tiempos recientes, mediante el uso de amplios conjuntos de datos para entrenamiento y reconocimiento de objetos y de eventos. Los beneficios potenciales de los chips de autoaprendizaje son infinitos.

El chip de pruebas de investigaciones Intel Loihi incluye unos circuitos digitales que imitan la mecánica básica del cerebro, agilizando e incrementando la eficiencia de la inteligencia artificial con menos potencia informática.

Ese chip de pruebas ofrece un aprendizaje flexible y combina entrenamiento e inferencias en un único chip. Esto permite a las máquinas ser autónomas y adaptarse en tiempo real, en vez de esperar a la siguiente actualización desde la nube.

En el primer semestre de 2018, el Intel Loihi se distribuirá a las más destacadas universidades e instituciones investigadoras para el desarrollo de tecnología para AI.

¿Qué es lo siguiente?

Impulsado por los avances en informática y en innovación algorítmica, se espera que el poder de transformación de la AI tenga un impacto en la sociedad a una escala espectacular. En la actualidad, en Intel utilizamos nuestra fuerza para impulsar la Ley de Moore y para mantener el liderazgo en fabricación para llevar al mercado una amplia gama de productos, ocupándonos de los requisitos únicos de las cargas de trabajo para AI desde un entorno local a centros de datos y la nube.

Mirando al futuro, Intel piensa que la informática neuromórfica ofrece un mecanismo para proporcionar un rendimiento a gran escala siguiendo un modelo inspirado en el funcionamiento del cerebro.

Espero que sigan los interesantes hitos que van a surgir de los Intel Labs a lo largo de los próximos meses, a medida que generalicemos conceptos como la informática neuromórfica, para ofrecer soporte a la economía mundial durante los próximos 50 años. En un futuro con informática neuromórfica, todo lo que puedes imaginarte (e incluso más) va a pasar de ser una posibilidad a hacerse realidad, a medida que el flujo de la inteligencia y de la toma de decisiones se haga más fluido y acelerado.

El objetivo de Intel para el desarrollo de arquitecturas informáticas innovadoras continúa inalterable y sabemos cómo va a ser el futuro de la informática porque lo estamos creando ahora.

© *Estracto del artículo “El nuevo chip de autoaprendizaje de Intel promete acelerar la inteligencia artificial”, escrito por Michael Mayberry, vicepresidente corporativo y director general de Intel Labs en Intel Corporation.

Primera computadora “touch screen”
  • La presentó Hewlett Packard el 29 de septiembre de 1983

¡Increíble! Si creías que las pantallas táctil es cosa del presente, estas equivocado. Aunque no lo creerías hace 34 años ya se había inventado la computadora con pantalla táctil (touch screen).

El 29 de septiembre de 1975 Hewlett Packard presentó la computadora personal HP-150 con una pantalla táctil que permitía a los usuarios activar una función tocando la pantalla.

La PC tenía un sistema operativo MS-DOS 2.11 y un microprocesador Intel 8088. LA HP-150 fue introducido con unidades de disco gemelas de 3.5 pulgadas HP 9121, las primeras unidades de disquete de 3.5 pulgadas comercialmente disponibles en los Estados Unidos. Estas unidades eran menos costosas, más confiables y mantenían la misma cantidad de información que las unidades compatibles con IBM de 5¼  pulgadas.

Tenía una ingeniosa grilla de rayos de luz infrarroja, con emisores en dos de los lados de la pantalla y receptores en los lados opuestos, esta pantalla permitía sustituir con un “toque” muchos comandos que, de otro modo, exigían el ingreso de crípticas sentencias DOS mediante el teclado. Cuando el dedo del usuario interrumpía uno de los rayos de luz, el hardware registraba el evento y lo comunicaba al sistema operativo, que actuaba en consecuencia.

La pantalla de la HP-150 era de nueve pulgadas en fósforo verde. Su costo (dependiendo de la configuración) era a partir de los 2,750 dólares de la época.

Como dato curioso: En esa fecha Hewlett Packard también puso de moda el término “IBM Compatibles”. Los discos tenían capacidades de entre 5 y 25 MB (sí, ¡Megabytes!) y las disqueteras de 3.5 pulgadas podían ser de una (270KB) o dos caras (540KB).

©Fuente: Wikipedia, HP y noteo.com.

Sabí as que…

29 DE SEPTIEMBRE

–1899:            nace Ladislao Biró. El padre del “Bolígrafo”.

–1920: Joseph Home Store vende el primer radio receptor pre-ensamblado.

–1954: Fundada CERN (Organización Europea para la Investigación Nuclear), donde Berners-Lee inventó la Web.

–1975: IBM presenta 5100, la primera computadora portátil comercial.

–1983: HP presenta HP150, primera PC touch screen.

–2005: Apple remueve de su Web uno de los mensajes mas tontos: “no coma el iPod shuffle“.

–2009: Microsoft lanza su antivirus Microsoft Security Essentials.

 

30 DE SEPTIEMBRE

–1915: D.Sarnoff, plantea vender una ‘Radio Music Box’ a cada hogar y que reciba música inalámbrica. Idea la Radio!

–1955:            nace Andreas Bechtolsheim, el inventor de la WorkStation.

–1980: Commodore International anuncia el CBM 8032. Tenía 96KB RAM.

–1982: Atari construye en un mes el Videojuego ET, de tan baja calidad que dispara la Crisis de 1983.

–1993: Presentado ALIWEB, el primer motor de búsqueda creado para la Web.

 

1º DE OCTUBRE

–1969: Intel se estrena como fabricante con un revolucionario Chip de 1KB RAM!

–1969: Ocurre la primera transmisión de datos en la naciente Arpanet: los caracteres “L G O”.

–1979: Nace Activision: 1ra desarrolladora independiente de videojuegos.

–1994: se crea la Consorcio World Wide Web “W3C”.

–2010:            Se estrena la película “the social network”.

–2006: Al vencer la patente, el estándar de manejo de imágenes GIF se vuelve de uso gratuito.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *