Al momento, stai seguendo questo contributo
- Vedrai gli aggiornamenti nel tuo feed del contenuto seguito
- Potresti ricevere delle email a seconda delle tue preferenze per le comunicazioni
BERT-Tiny is a pretrained language model based on Deep Learning Transformer architecture that can be used for a wide variety of Natural Language Processing (NLP) tasks. This model has 2 self-attention layers and a hidden size of 128.
To load a BERT-Tiny model, you can run the following code:
[net, tokenizer] = bert(Model="tiny");
Compatibilità della release di MATLAB
- Compatibile con R2023b fino a R2026a
Compatibilità della piattaforma
- Windows
- macOS (Apple Silicon)
- macOS (Intel)
- Linux
