Probablemente haya escuchado el nombre de Intel antes, pero es posible que no esté familiarizado con el nombre de Gordon Moore. Este último es el cofundador de Intel y, según los informes, vale la friolera de $ 12 mil millones. Pero lo que caracteriza a Moore es una observación que hizo en la década de 1960. Señaló que la densidad de los transistores se duplicaba cada dos años, lo que les daba a los fabricantes de chips algo así como una hoja de ruta y un objetivo. TSMC, la fundición independiente más grande del mundo, ha insertado poco más de 52 millones de transistores en cada milímetro cuadrado de chips fabricados con su proceso de 10 nm (como el Snapdragon 835 de 2017, por ejemplo). La plataforma móvil Snapdragon 865, que impulsa muchos de los modelos insignia de Android este año, se construye utilizando el proceso de 7 nm que está equipado con casi 100 millones de transistores por mm cuadrado.
La ley de Huang podría estar detrás de la compra propuesta por Nvidia de ARM Holdings
La ley de Huang puede estar detrás de las ofertas de $ 40 mil millones de Nvidia por ARM Holdings [19659006] Tanto TSMC como Samsung, las dos primeras fundiciones independientes del mundo, tienen hojas de ruta de hasta 2 nm. Pero, ¿qué sucede cuando llegamos al final de la Ley de Moore? Christopher Mims del Wall Street Journal tiene la respuesta: la ley de Huang. Mims nombra su comentario en honor al CEO y cofundador de Nvidia Corp. Jensen Huang. La ley de Huang establece que los chips que potencian la inteligencia artificial (IA) más del doble de rendimiento cada dos años; esta mejora puede atribuirse a las mejoras de software y hardware a lo largo del tiempo. Bill Dally, científico jefe de Nvidia y vicepresidente senior de investigación, informa que entre noviembre de 2012 y mayo de 2020, el rendimiento de algunos chips de IA de Nvidia aumentó 317 veces. Es mejor que la "ley" dictada por Gordon Moore. TuSimple, una empresa de camiones autónomos, dice que el rendimiento se duplica cada año en sus sistemas impulsados por Nvidia.
Los chips de GPU, como el tipo por el que se conoce a Nvidia, pueden manejar muchas tareas diferentes al mismo tiempo. Las CPU, o unidades centrales de procesamiento, son mejores para manejar tareas individuales rápidamente. Algunas tareas, incluidas las relacionadas con la inteligencia artificial, pueden dividirse y manejarse mucho más rápido con un chip GPU que usa menos energía. Y a medida que la IA pasa de la nube al uso en el dispositivo, ARM Holdings es uno de los líderes en proporcionar los componentes que necesita. Y eso podría explicar la oferta de 40.000 millones de dólares de Nvidia para comprar la empresa.
Sin embargo, hay algunas salvedades. La potencia de procesamiento disponible en las GPU no se puede utilizar en todas las situaciones. El cofundador y director de tecnología de TuSimple, Xiaodi Hou, señala que incluso en empresas que dependen en gran medida de la inteligencia artificial, como los camiones autónomos, la mayor parte del código del sistema requiere el uso de CPU. . Y como la ley de Moore, la ley de Huang eventualmente ya no será factible. Eso todavía podría dejar casi una década para la utilidad de la ley de Huang. Pero no estará tan extendido como lo ha estado y sigue siendo la Ley de Moore. Y para cuando los fabricantes de chips tengan que reemplazar la Ley de Moore, es de esperar que se desarrolle algo con capacidades más extendidas que tenga un largo futuro por delante. Sin embargo, para que Nvidia gaste $ 40 mil millones para comprar ARM, debe tener una muy buena razón para hacerlo.