Rural Tex es un estúpido portal web de noticias y reseñas sobre videojuegos y cine popular. Combatiendo el mal gusto desde 2005 (nos está costando mucho) Influenciados por nuestra cultura geek de Comic Books & Gaming, hacemos Periodismo Gonzo de tercera en este 'Colosal Desperdicio de Ancho de Banda'

RESEÑAS

Todas las reseñas de videojuegos y cine se encuentran en nuestra base de datos alfabetizada. Rural Tex™ no apoya la piratería, todo medio que se revisa es estrictamente legal y original.

Importante: Información Legal.

CALIFICAMOS ASÍ

Nuestra escala para calificar las reseñas del 1 al 5. Con el Sir William McKay reservado sólo a la excelencia.

  • Sir William McKay: Aleph One.
  • Willy McKay: ¡Non-Plus-Ultra!
  • McKay: Muy bueno, peeero…
  • Pasta: Ta' Bien… Ta' Bien…
  • Mancao: Coleto impresentable.
  • Ñame: ¡Que nos devuelvan el tiempo y dinero que perdimos en revisar esta grandísima porquería! ¡Un CULAZO!
Do that to me one more time, Apple
Fuck You Android! (and the horse you rode in)

Tenía tiempo sin escribir uno de mis análsis de una presentación de Apple. Es que Apple se ha vuelto tan predecible, estéril y aburrida que ganas me faltaban… hasta hoy. Si ya vieron el keynote, contando que sean lo suficientemente geek como para estar pendiente de estas cosas y no de lo comercialmente superfluo ("¡Oye Bro, viste el nuevo iPhone 12? ¡Ke Qul!"), estarán enterados de los avances en materia de software para todas las plataformas de Apple. Tuvimos lo acostumbrado, los sospechosos que desde los últimos cinco años pasan matrícula obligatoria en la cita dirigida a los desarrolladores, es decir, el World Wide Developers Conference (WWDC) 2020. En ese orden de ideas, tuvimos un nuevo iOS, un nuevo watchOS, un nuevo macOS y, desde el año pasado, un nuevo iPadOS y tvOS. Nada espectacular si los resumimos en un conglomerado de funciones que se amoldan al torrente de las tendencias actuales en materia de smartphone, smartwatch y sistemas operativos. Cualquier función "nueva" es debatible, aunque podría dedicarle un parafo a cada uno como antes, no veo la necesidad.

iOS 14 soportará la misma parrilla de equipos que iOS 13, mejor organización de apps, avances en messages e incorporará widgets entre los iconos de las páginas de aplicaciones en una movida que muchos han acusado como que adoptan de Android como si fuera la gran cosa o como si Apple "estaba atrasado" –en cuanto a estos diseños de interfaces absolutamente subjetivos de dudosa utilidad e importancia– que sugiere que de alguna forma son revolucionarias e indispensables como lo fue el iOS ante el status quo de los smartphones para 2007. Bullshit!

Recordemos que no había NADA como el iOS antes del iPhone, y luego de su llegada, todos siguieron esa tendencia y aún aspiran a reinventar la rueda. TODO el concepto del GUI de Android es un plagio flagrante de iOS y admitido por el propio Eric Smitdz (GOOGLE) cuando estaba en la junta directiva de Apple y fue el motivo de su remoción sin ceremonia; de la misma manera que Microsoft lo hizo con Windows al copiar el Mac OS cuando Gates era parte del entorno de desarrollo de aplicaciones del Macintosh original. Porque antes del Macintosh/Lisa, no existía nada como el Mac OS en el mercado comercial durante la génesis de la computación personal (no cuenta el prototipo experimental de la Xerox ALTO de donde viene la inspiración del GUI que Apple desarrolló para sus proyectos, que fue de mutuo acuerdo con XEROX PARC, no lo copió, a diferencia de Microsoft).

Pero si lo quieren ver como que "Apple está detrás de Android", métanse un dedo en el culo y huélalo profundamente cada vez que vayan a usar su one-size-fits-all Android OS, porque eso es lo que tienen dentro de su smartphone independientemente de qué tan refinado sea el hardware que lo habilita. Mierda. El iOS ha estado en su peor momento últimamente en cuanto a estabilidad y pulido de su control de calidad, con algunos eventuales baches de seguridad, pero nada que ver con lo que representa el sistema Android que sigue siendo más inseguro y menos optimizado a pesar que han hecho avances en seguridad importantes. Pueden argumentar lo contrario hasta que la cara se les ponga azul sin aire, pero la realidad es que iPhone es iPhone, punto. [drops mike]

Fuck You Intel! (and the horse you rode in)

De verdad, si quieren saber qué pendejada nueva trae el watchOS 7 (que poco me interesa, siquiera porque ya voy para un año usando uno), o el tvOS y el iPadOS, vayan a la página de Apple y se deleitan con los detalles. Ni el nuevo Mac OS 11, que despide al Mac OS X, trae una función nueva fuera de su rediseño visual que produzca interés genuino en mí, sólo un cambio de look que más se asemeja al iOS en estilo decorativo temático que funcional, pero aún retiene el espíritu intacto del GUI desde 1984. Lo que me impactó y llamó la atención es algo que esperaba desde hace varios WWDC y que se rumoraba con más fuerza en la víspera de este keynote virtual; que dicho sea de paso, fue mucho mejor que cualquier evento en vivo con auditorio lleno de jalabolas. Exceptuando, por favor, los keynotes bendecidos por la presencia de su santísima mercurialeza, el Profeta Steve Jobs (peace be upon him), levitando sobre el escenario ungiéndonos con su Reality Distortion Field. [me seco las lágrimas]

Me refiero al anuncio que Apple volverá una vez más a hacer una transición radical de su arquitectura de hardware, en específico de la plataforma Mac, que migrará de su actual formato de instrucción x86 con su actual aliado y proveedor "Chipzilla" –alias Intel– a una muy distinta de su propio diseño y desarrollo basada en el formato de instrucción ARM. Lo digo de esta manera para que se entienda que no es que "Apple cambia Intel por ARM", sino que va a dejar de usar la plataforma x86 fabricada por Intel por una de su propio desarrollo y diseño, basado en la plataforma e instrucción ARM.* Decir que Apple se pasa a ARM es un insulto al legado que han construído en base a esa arquitectura, con miles de patentes y diseños propios, al punto que han formado su propio chip para sus propias necesidades que se distancia de cualquier ARM común y corriente.

No es que Apple deja de comprar chips x86 a Intel para comprar chips ARM hechos por, por ejemplo, Fujitsu, porque no es así, no cambia de proveedor, se convierte en su propio proveedor. Apple está usando su propio diseño, su propia vertiente desviada y tangencial de su base de origen.** Sí, sigue siendo ARM porque es la base de su instrucción, pero las similitudes terminan ahí, porque se denomina: "Apple Silicon".*** Un A-Series de Apple no se parece en nada a un típico ARM pedestre como decir que Ryzen 3 es igual a cualquier mierda que hace Chipzilla ¿verdad que no? AMD ha puesto su salsa secreta a su diseño y desarrollo, basado en x86, que merecen tener el reconocimiento de la personalidad de sus propios chips casi como una entidad alterna. Decir lo contrario sería ignorancia.

He vivido todas las transiciones, la del Motorola 68000 (68K) al PowerPC de IBM, la del PPC a x86 de Intel y ahora ésta. No estoy tomando en cuenta la del classic Mac OS al OS X porque me estoy centrando en los cambios de arquitectura de hardware, pero esa no fue menos fuerte ni traumática. Ninguna ha sido suave, aunque sólo la primera fue dolorosa. La de PowerPC a Intel fue quizás la más rápida y transparente, y cuando pensé que no vendría otra, me lo meten doblado.

From Godzilla to Barney

Esa fue la parte del evento online del WWDC 2020 que me cautivó y acaparó mi interés. ¿Por qué, si no quiería vivir otra transición? Pues porque lo que Apple ha hecho durante los últimos 10 años con su propia versión de ARM da muy buenos pronósticos de lo que podría ser la Macintosh bajo este esquema que ha beneficiado al iPhone. No será fácil llegar al nivel de rendimiento de un Xeon o un i7 de la noche a la mañana, pero eso es progresivo y eventual. Como del A4 al A13 Bionic que logró en una década saltos tan drásticos –año tras año– que humilla el legado de Intel de medio siglo y destrona la Ley de Moore. De la misma manera que no tomamos en serio al A4 siendo el primero que Apple saca bajo su firma y hoy nos inmutamos de lo que es capaz de hacer su tatara-tatara-tatara nieto el A13, podemos elucubrar en proyecciones muy positivas y realistas ante la posibilidad de darle rienda suelta al equipo de R&D de Apple en aplicar esta misma filosofía al Mac. Ya hay varios puntos ganados y todo esto que dije es reflejo de lo que dijo Johny Srouji****, Senior Vice President of Hardware Technologies, cuando nos dictó una cátedra de los fundamentos ideales que Apple persigue para la Mac en cuanto a un CPU idílico que Intel no puede fabricar. Apple tiene las de ganar, no sólo controlaría los diseños de su CPU, o en este caso SoC, sino que controlaría los tiempos en que planifica sus productos y, como siempre, optimizarían su software íntimamente a los diseños y requerimientos de su hardware.

Las proyecciones son infinitas, puesto que Apple puede ganar en varias categorías para liderar la industria del PC. Con esto no me refiero exclusivamente al rendimiento y potencia, la clara opción que todos apuestan, naturalmente. Sino a muchas otras de vital importancia, como el rendimiento de la batería que ha sido un área inamovible dentro de las laptops de la última década. Mayor seguridad, en especial que en los últimos meses ha habido graves denuncias sobre serios hoyos de seguridad en todos los chips de Intel desde el comienzo de la serie Core. Fallas que se pueden explotar con fines malignos. Una mejor integración del software de Apple a la vez que con el resto del ecosistema de dispositivos de Apple. Mejor manejo de los tiempos de entrega de productos nuevos al mercado sin depender del itinerario errante de Chipzilla, ni tener que diseñar los sistemas de cada modelo de Mac en función de los SKU que Intel defina como los mejores para el mercado genérico, en lugar de chips específicos para las necesidades de Apple. Mejor administración de consumo de energía y emisiones de calor, sin tener que comprometer potencia por ahorro de energía y viceversa. Mejores herramientas de desarrollo para sus programas de desarrolladores terceros y aliados. Mejores procesadores gráficos –GPU– optimizados para sus necesidades y aplicaciones con mejores API y frameworks más eficientes (Metal, anyone?). Encriptado. Codificación y descodificado de estándares de compresión, etc.

Fuck You Windows! (and the horse you rode in)

Las demostraciones en vivo fueron poco más que alentadoras. Con mejores pronósticos para una transición aún más transparente y suave que la del PPC a Intel. Emulación de x86 bajo el retorno de Rosetta con mejores resultados, casi imperceptibles, para traducir código ISA x86 en tiempo real, mientras el desarrollador compila una versión nativa a ARM, que según, con las nuevas herramientas de Xcode, se realizan en días para el promedio de las aplicaciones. Ver las primeras demostraciones de Photoshop corriendo en un A12Z, siquiera es el A-Series SoC más potente que Apple dispone, fue poco más que impresionante. Ni hablar del demo de Final Cut Pro, aplicación que también ha sido convertida a ARM nativa al igual que el resto del catálogo de Apple, corriendo como un workstation en ese mismo chip, pues, caí de culo (3 streams de 4K simultáneo no lo hace ni la MacBook Pro actual).

Con la habilidad de correr aplicaciones para iPad bajo el programa Catalyst que será fundamental dentro del Mac OS X 11 "Big Sur", el cual, como la mayoría de las aplicaciones de transición, llevarán código doble x86/ARM bajo el esquema Universal Binaries, análogo a como sucedió durante la transición de PowerPC a Intel. La parte gráfica también tuvo un despertar al ver un juego AAA reciente corriendo fluido en un A12Z de forma emulada –aunque en 1080p– dice mucho del portento que tienen los GPU integrados de los A-Series actuales dedicados y optimizados para móviles, no desktops. ¿Qué será de un chip especialmente diseñado para un Mac con mayores bondades de poder dada su condición de desktop/laptop que no dependen de una mini batería ni severas optimizaciones de ahorro eficiente? Un chip con un GPU más robusto, cores más potentes aunque de mayor demanda de energía, pero sin requerir la administración termal de un Intel i#. Con más RAM, co-procesadores neurales y DSP especialmente dedicados a codecs como H.265/HEVC/VC-1/VP9. Dios. Es que hasta vimos el A12Z mover sin problemas una sesión compleja de Maya ¡y bajo emulación Rosetta!

No todo es color de rosa, ya que Apple no dio razón de cómo será la virtualización con Windows si éste no hace una migración a ARM pronto. Extraoficialmente Apple le dijo a Arstechnica que no va a haber bootcamp ni virtualización/emulación bajo ARM con Windows por obstáculos intraficables que existen entre las dos filosofías técnicas. Mientras, sólo será con Linux. Existe una versión de ARM muy primitiva para Windows, pero ésta no es comercial y, como dije, es muy primitiva. Hay esperanzas para quienes necesitan usar ese nefasto OS para trabajo de desarrollo bajo ambiente Mac, porque en cuanto a juegos usando bootcamp el panorama es my prometedor luego del demo de 'Shadow of the Tomb Raider' emulado en un chip de iPad. Lo otro es la capacidad que Apple pueda tener para competir en la arena del GPU ante nVIDIA y AMD, si desea cortar el cordón umbilical con este último quien es su proveedor de GPUs discretos para las Macs de alto performance de corte Pro. A Apple nada le costaría implementar un controlador PCI-express para seguir usando chips Radeon en sus MacBooks y iMacs, a costa de sacrificar rendimiento de batería –y PSU– dado lo mucho que demandan esos chips en cualquier escenario. Eso mientras elaboran un sustituto competitivo. De la misma manera que Apple no se va a zafar de Intel del todo ya que tiene que usar controladores de USB y Thunderbolt (aunque el TB es co-propiedad de Apple como co-desarrollador y miembro de su estándar). Veremos.

Falta mucho por saber y enterarnos, sobre todo que Apple le metió al acelerador al anunciar el programa de Developer Transition Kit que incluye una Mac mini con un A12Z (del iPad Pro) para empezar a darle las primeras herramientas a los Devs interesados, usando Mac OS 11 Beta y Xcode, muchos de los cuales ya tenían una desde hace tiempo, como Adobe y Microsoft. Porque según Tim Cook, CEO de Apple, los primeros modelos de Macs con "Apple Silicon" o la serie especial de ARM que tendrán, debutan en el mercado este mismo fin de año. Así que lamento por aquellos que recién compraron Macs con Intel, que por más "soporte" que les prometan para los próximos años, la actitud de Apple y los Devs va a ser una lenta y progresiva "marginalización" de Intel en favor del futuro con ARM, una sacada de culo protocolar. Lo sé, lo he vivido tres veces, una con 68K-a-PPC, luego a OS X, y hace menos de dos décadas de PPC a Intel. Ni hablar de los que compraron una Mac Pro 2019 de seis cifras de costo, esos deben estar botando espuma por la boca como poseídos por el demonio. Triste, pero mi actitud hacia Intel –que nunca me gustó– es un asco total y no veo el día de deshacerme de todas mis Inteltosh® en favor de las nuevas que iniciarán el futuro con ARM.

Este mismo año de ser posible.

Fuck Intel!



Bartolomeo

[*] La arquitectura ARM no es otra cosa que un miembro de la familia de microprocesadores RISC, o Reduced Instruction Set Computer. Son microprocesadores de instrucción reducida para mayor eficiencia de cómputo. El objetivo inicial era para hacer computadores compactos ya que durante la concepción de RISC, los computadores ocupaban cuartos enteros y eran basados en la filosofía CISC o Complex Instruction Set Computer, la misma en la que se basa la x86 impulsada por Intel y otras familias de CPU populares de los 70 y 80 como los Zilog, 6502, el 8080 y sí, hasta el chip con que debutó el Mac, el 68K (680x0). De hecho, RISC está en el nombre de ARM (Advanced RISC Machine). Sin ponernos muy técnicos, ARM ha sido muy versátil en cuanto a la flexibilidad que su diseño permite vertientes, mucho más que otras líneas de diseño de RISC, como la Power Series de IBM que Apple usó durante su Era PowerPC. La clave de esta modularidad flexible se debe a su implementación de diseños como SoC o SoM (System on a Chip y Systems on Modules respectivamente). Lo hermoso de ARM, al igual que cualquier RISC no sólo está en su capacidad eficiente de mover instrucciones reducidas para efectuar la misma tarea que otros diseños en menor tiempo, sino en que emplea diseños con menor cantidad de transistores y soluciones de eficiencia de consumo de poder. ARM siempre ha tenido limitaciones que cada vez más ha ido superando, como que estuvo mucho tiempo estancado en 32-bit, no tenía soporte para múltiples núcleos ni SMT (HyperThreading), todas estas limitaciones las ha vencido en lo que va de siglo. ARM es actualmente el microprocesador más empleado en el mundo industrial y comercial en casi todo renglón que imagines. La razón es que ARM Holdings, quien posee la potestad de sus diseños y patentes, es quien otorga licencias abiertas a cualquier compañía de desarrollo tech. Samsung, Fujitsu, TSMC y UMC son las empresas más grandes en reproducción y replicado en masa de todo tipo de diseños basados en ARM.

[**] La larga odisea de Apple hacia el desarrollo de su propio chip comienza el 23 de Abril de 2008 cuando para entonces su mercurialeza real, Steve-O, estratégicamente adquiere a P.A. Semi por la suma de $278 millones en una jugada que dejó al mundo boquiabierto. ¿Por qué? dirán, pues porque apenas dos años antes, Apple acababa de desechar la alianza que comenzó a principios de los '90 junto a Motorola e IBM donde desarrolló chips basados en la arquitectura PowerPC (en base al Power Series RISC de IBM), CPUs que usaron en sus Macs durante más de 14 años. Pues en medio de la luna de miel con Intel, su nuevo proveedor, y en medio de la transición de PPC, Apple decide comprar una compañía de Silicon Valley que diseña y desarrolla chips basados en arquitectura PowerPC/RISC. "WTF!?" –se le escuchó a Intel desde sus adentros. Pues el motivo era que P.A. Semi –Palo Alto Semiconductor– era conocida por desarrollar microprocesadores Power ISA, muy eficientes, que lograban hacer lo que los PowerPC de IBM no podían: muy bajo consumo de energía, siendo una vertiente de PPC diseñada desde cero por fuera de los diseños de IBM. P.A. Semi fue fundada por un genio de la informática que fue reconocido por sus "diseños boutique" demasiado arrojados y adelantados a su tiempo, pero que nadie sabía implementar en la práctica ni se atrevía a reproducir en masa. Daniel W. Dobberpuhl, quien tristemente falleció el año pasado, sostuvo una fraternal relación de amistad con Jobs y se rumoraba por años que se asociarían para trabajar en algo, hasta que se dio la adquisición por parte de Apple. El objetivo era claro, sus diseños se podían trasladar para aplicaciones móviles de bajo consumo y alto rendimiento. Justamente un año antes de esta adquisición, Apple acababa de lanzar el iPhone y estaba en la etapa final del desarrollo del iPad. Saquen la cuenta. Pero esta movida necesitó de otra pieza importante [ver ****].

[***] Apple Silicon es el denominativo general que se le da a los chips diseñados y producidos en casa, Apple, desde que adquirieron a P.A. Semi en 2008. Las aplicaciones han sido desde el primer chip para el iPad –el primer diseño y objetivo principal– pasando por migrar al iPhone a esta línea, hoy conocida como la A-Series, hasta numerosas aplicaciones específicas como el T-Series, U-Series, H-Series, S-Series (Apple Watch), W-Series y muy pronto la serie especialmente dedicada al Macintosh con sus exigencias particulares que determinarán su diseño. Tenía tiempo que algo no me excitaba en tech y menos con Apple.

[****] Johny Srouji es un nombre que no conocía, pero que sabía que existía desde aquellos titulares cuando "Steve Jobs sedujo a un genio diseñador de chips de Intel a Apple", pero nunca le había visto el rostro o el nombre, sólo sabía que era israelí. Durante el keynote de ayer recibí el comentario de Nhoze muy agitado diciendo que "ese judío es un prodigio, fue quien convirtió los ARM en los SoC del iPhone que son unos monstruos", a lo que inmediatamente lo relacioné con aquel israelí que tanto escuché hablar y que no sabía quién era ni como se llamaba. Ayer fue su primera aparición mediática en un keynote de Apple y su explicación sobre el roadmap que Apple va a implementar con sus propios chips para la Mac fue reveladora y satisfactoria. Srouji en efecto fue quien diseñó el primer chip hecho en casa, el A4, y de ahí en adelante todos los que Apple ha usado en sus equipos fuera de la Mac (excepto el T-Series). Srouji es un summa cum laude con masters en ciencias computacionales y fue diseñador ejecutivo en Intel por más de 15 años antes que Jobs se lo trajera a Apple en 2008; en el mismo año que Apple adquiere P.A. Semi como estrategia para sus planes futuros de desarrollar sus propios chips. Esta estrategia culmina en 2011 cuando Apple adquiere la compañía israelí de flash storage and semiconductors, Anobit (por $500 millones), para la elaboración de controladores de SSDs o Solid State Drives, poseedora de las mejores patentes para controladores de flash storage systems que hoy Apple emplea en sus propios SSDs usando chips NAND Flash de Samsung.

NOTA: La Super Computadora más potente del mundo está basada en ARM.

P.D.: Fuck You Guzzy! and your shitty Android phone, too. :-B
Template Design by Rural Tex