Tensor Processing Unit
Főnév
Tensor Processing Unit (tsz. Tensor Processing Units)
- (informatika) A TPU (Tensor Processing Unit) egy kifejezetten gépi tanulási (ML) feladatokra optimalizált speciális célhardver, amelyet a Google fejlesztett ki. A TPU célja, hogy nagy sebességű, energiahatékony számításokat biztosítson főként neuronhálók futtatásához, különösen a TensorFlow keretrendszerrel való használatra.
🧠 1. Mi az a TPU?
A TPU egy ASIC (Application-Specific Integrated Circuit) – olyan chip, amit egy meghatározott feladat végrehajtására terveztek. Esetében ez a feladat a tenzorszámítás, ami a mélytanulás leggyakoribb művelete.
A „Tensor” szó a többdimenziós tömbök (pl. mátrixok, tenzorok) matematikai elnevezésére utal, amelyek a gépi tanulás alapegységei.
⚙️ 2. Miért nem CPU vagy GPU?
| Hardver | Cél | Jellemző |
|---|---|---|
| CPU | Általános feldolgozóegység | Rugalmas, de lassú ML-re |
| GPU | Párhuzamos grafikus számítás | Gyors ML-re, de energiaigényes |
| TPU | Gépi tanulásra optimalizált chip | Extrém gyors, alacsony fogyasztás ML-ben |
A TPU nem általános célú, hanem kifejezetten mátrixszorzásra, tenzorműveletekre optimalizált.
📦 3. TPU-generációk (Google Cloud TPU-k)
| Generáció | Jellemzők |
|---|---|
| TPU v1 | Inference-re (modellfuttatás) készült, 2015–2016 |
| TPU v2 | Képes tanításra is, 180 TFLOPS, 64 GB HBM |
| TPU v3 | Gyorsabb (420 TFLOPS), jobb memória |
| TPU v4 | 2021-től, Google saját adatközpontjaiban, sokszorosan párhuzamosított |
| Edge TPU | Kicsi, alacsony fogyasztású verzió IoT-eszközökhöz (pl. Coral USB stick) |
🧮 4. Főbb műszaki jellemzők
- Mátrix-multiplikációs motor (Matrix Multiply Unit – MXU)
- Hardveres 8-bit, 16-bit és bfloat16 támogatás
- Masszívan párhuzamos architektúra
- High Bandwidth Memory (HBM): alacsony késleltetésű memória
- Kifejezetten TensorFlow XLA (Accelerated Linear Algebra) compiler támogatásra készült
💡 5. Hogyan használható a TPU?
A TensorFlow-ban:
resolver = tf.distribute.cluster_resolver.TPUClusterResolver()
tf.config.experimental_connect_to_cluster(resolver)
tf.tpu.experimental.initialize_tpu_system(resolver)
strategy = tf.distribute.TPUStrategy(resolver)
A stratégia alatt a model.fit() és egyéb műveletek automatikusan TPU-n fognak futni, ha elérhető.
🧰 6. TPU alkalmazási területek
- Képfeldolgozás (CNN-ek): pl. Google Photos arcfelismerés
- Természetes nyelvfeldolgozás (NLP): pl. BERT, T5 modellek tanítása
- Recommender rendszerek
- Nagy nyelvi modellek (LLM-ek): pl. PaLM, Gemini
- Edge ML: Edge TPU-val kamerák, szenzorok intelligens kiértékelése
☁️ 7. Google Cloud TPU
- TPU pod: több TPU összekapcsolva → akár több petaflops számítási teljesítmény
- Használható TensorFlow, PyTorch, JAX keretrendszerrel
- Google Colab is kínál (korlátozott) TPU használatot
⚖️ 8. TPU vs GPU
| Jellemző | GPU (pl. NVIDIA A100) | TPU (v4) |
|---|---|---|
| Cél | Általános ML | Tenzorműveletek |
| Programozhatóság | Flexibilis (CUDA) | Optimalizált, de kevésbé rugalmas |
| Teljesítmény | Nagyon magas | Specifikus feladatokon gyorsabb |
| Energiatakarékosság | Kisebb | Jobb energiamutató ML-ben |
📏 9. TPU használat előnyei
- Gyorsabb betanítás (különösen mély tanulási modelleknél)
- Alacsonyabb energiafogyasztás
- Költséghatékonyság nagy skálán
- Nagy LLM-ekre optimalizálható (PaLM, Gemini)
🧠 10. Összegzés
A TPU (Tensor Processing Unit) egy Google által fejlesztett, gépi tanulásra optimalizált hardverplatform, amely radikálisan meggyorsítja a tenzoralapú műveleteket. Elsősorban mélytanuló modellek – különösen neurális hálózatok – hatékony futtatására és tanítására használják, mind a felhőben (TPU v2–v4), mind az élvonalbeli eszközökön (Edge TPU).
- Tensor Processing Unit - Szótár.net (en-hu)
- Tensor Processing Unit - Sztaki (en-hu)
- Tensor Processing Unit - Merriam–Webster
- Tensor Processing Unit - Cambridge
- Tensor Processing Unit - WordNet
- Tensor Processing Unit - Яндекс (en-ru)
- Tensor Processing Unit - Google (en-hu)
- Tensor Processing Unit - Wikidata
- Tensor Processing Unit - Wikipédia (angol)