Niezwykle przejrzysty i wnikliwy przewodnik po najważniejszej bibliotece współczesnego NLP. Polecam!
Christopher Manning, profesor Uniwersytetu Stanforda
Tę książkę docenią praktycy: inżynierowie uczenia maszynowego i analitycy danych, poszukujący sposobu praktycznego zaadaptowania modeli transformacyjnych do swoich potrzeb. Autorzy skupili się na praktycznej stronie tworzenia aplikacji językowych, a w poszczególnych rozdziałach ujęto wszystkie najważniejsze zastosowania transformerów w NLP. Zaczniesz od łatwych w użyciu potoków, następnie przystąpisz do pracy z tokenizatorami, klasami modeli i interfejsu Trainer API, pozwalającymi na trenowanie modeli do konkretnych zastosowań. Dowiesz się również, jak zastąpić interfejs Trainer biblioteką Accelerate, która zapewnia pełną kontrolę nad pętlą treningową i umożliwia trenowanie dużych transformerów od zera!
W książce:
* tworzenie modeli transformacyjnych przeznaczonych do typowych zadań NLP
* stosowanie transformerów do międzyjęzykowego uczenia transferowego
* używanie transformerów w rzeczywistych scenariuszach
* optymalizacja modeli technikami: destylacji, przycinania i kwantyzacji
* trenowanie modeli transformacyjnych z wykorzystaniem wielu procesorów graficznych w środowisku rozproszonym
Autorzy książki są współtwórcami platformy Hugging Face.
Wybitna książka poświęcona wybitnej bibliotece - wzór przejrzystości!
Jeremy Howard, profesor Uniwersytetu Queensland
Azymut
-
Autor:
Lewis Tunstall, Leandro von Werra, Thomas Wolf
-
Format:
16.5x23.5cm
-
ISBN:
9788328907119
-
Objętość:
360
-
Oprawa:
Miękka
-
Rok wydania:
2024
-
Tematyka:
Informatyka
-
Wydanie: