上次台裔Google科學家紀懷新Ed H. Chi (L9)來台灣接受訪問的時候就有談到這個: 今天記者會上,紀懷新也解密,其實 Google 在訓練 AI 時,100% 使用的都是自家的 TPU,「Google 很早就在 AI 領域投入了大量資源,包括硬體,包括裡頭的數學、算法等 ,這些都是我們的強項。」 Google 2023 最新的論文 TPU v4: An Optically Reconfigurable Supercomputer for Machine Learning with Hardware Support for Embeddings Abstract 1.2x–1.7x faster and uses 1.3x–1.9x less power than the Nvidia A100 大公司自己搞這些東西沒問題 沒資源搞這些有的沒的 還是只能跟Nvidia買沒衝突 至於什麼生態 大公司完全可以自己在公司搞一套自己專用的工具 進來的人自然會想辦法學會這套工具怎麼用 https://www.inside.com.tw/article/32510-Google-Bard-Ed 微軟要搞鏟子好啊 還是只能找台積電代工 代工鏟子94舒服 ※ 引述《jerrychuang ()》之銘言: : 原文標題: : 減少依賴輝達 傳微軟將推自研首款AI晶片 : 原文連結: : https://ec.ltn.com.tw/article/breakingnews/4451397 : 發布時間: : 2023/10/07 11:13 : 記者署名: : 原文內容: : 〔財經頻道/綜合報導〕根據《The Information》報導,微軟(Microsoft)可能下個月 : 在其年度開發者大會上,推出首款專為人工智慧 (AI)設計的晶片。 -- ※ 發信站: 批踢踢實業坊(ptt-website.tw), 來自: 111.249.84.25 (臺灣) ※ 文章網址: https://ptt-website.tw/Stock/M.1696686585.A.9F4
Leo4891 : 台積電都說AI只佔6%了 占比拉不高沒啥用 10/07 21:50
jerrylin : 找台積電代工10元晶片賣100元 這生意哪裡不能做 10/07 21:52
payneblue : AI就初期而已 是多高占比 6%不是錢 沒啥用 甚麼邏輯 10/07 21:54
zerro7 : 台積電不是說努力在擴充CoWas產能 之後只會更高吧 10/07 21:56
zerro7 : CoWoS 10/07 22:00
yes500: 包養真心分享趣事。 10/07 22:00
aegis43210 : GG喜歡標準化SOC的單,這種客製化晶片的單量很少 10/07 22:11
aegis43210 : 才領先A100的能效比1.9倍,TPU可是ASIC,這樣其實蠻 10/07 22:14
aegis43210 : 差的 10/07 22:14
henry2003061: 現在6% 未來10年變幾% 有些人只看了到這一兩年 10/07 22:17
jerrychuang : 現在鏟子會貴是因為稀有跟專用,不是因為鏟子真的很 10/07 22:21
alexantiy: 包養平台要慎選。 10/07 22:21
jerrychuang : 厲害啊 10/07 22:21
rrroooqqq : 挖不到黃金鏟子就沒用了,看看元宇宙... 10/07 22:43
scum5566 : ai終究會平價化 10/07 22:49
roseritter : 我先用強大算力衝了再說,搶時間啊 10/07 23:56
darktasi : Ai終究會泡沫化 10/08 00:23
sowrey: 包養分析瞭解對方。 10/08 00:23
enso : gpu的設計本來就不是AI。只是有個Cuda方便開發,這 10/08 00:56
enso : 才是NV勝出的原因。不然Intel與AMD都有gpu 啊 10/08 00:56
a000000000 : 去年之前估狗在內部推tpu都推不太起來喇 10/08 02:18
a000000000 : 自研=超封閉環境=跳槽不友善 10/08 02:19
a000000000 : 今年裁員不知道那些AI仔會不會乖一點 10/08 02:21
cw758: 包養不急於求成。 10/08 02:21
a000000000 : 然後這時點估狗吹說他tpu多有遠見也沒意義 10/08 02:22
a000000000 : 因為LLM大爆發根本沒啥人預期得到 包含老黃 10/08 02:22
a000000000 : 老黃要是知道 h100就不會只給80G hbm惹 10/08 02:23
rkilo : 比贏A100有什麼好說嘴的 10/08 07:55
ajkofqq : 雀食 10/08 08:27
ludi: 包養網開拓人脈。 10/08 08:27
jatj : 某 又來了 10/08 09:44
aegis43210 : 所以老黃緊急做了一個gh200出來,不過i皇、蘇嬤針對 10/08 12:04
aegis43210 : 性LLM的新架構要等2025了 10/08 12:04
lavign : 實驗訓練AI模型,TPU效能比GPU差勁60倍 10/08 13:25
richaad : 看人說啥就吸收啥,看看業績才是真的 10/08 16:40
peernut: 包養開心遇到知己。 10/08 16:40
dragonjj : 明年B100就出來了 會有幾G HBM? 美光耀重返榮耀? 10/08 22:09