Folgen
Li Du
Li Du
Bestätigte E-Mail-Adresse bei cs.jhu.edu
Titel
Zitiert von
Zitiert von
Jahr
The curious case of neural text degeneration
A Holtzman, J Buys, L Du, M Forbes, Y Choi
arXiv preprint arXiv:1904.09751, 2019
23822019
Hidden State Variability of Pretrained Language Models Can Guide Computation Reduction for Transfer Learning
S Xie, J Qiu, A Pasad, L Du, Q Qu, H Mei
arXiv preprint arXiv:2210.10041, 2022
162022
A Measure-Theoretic Characterization of Tight Language Models
L Du, LT Hennigen, T Pimentel, C Meister, J Eisner, R Cotterell
arXiv preprint arXiv:2212.10502, 2022
132022
Tokenization and the Noiseless Channel
V Zouhar, C Meister, JL Gastaldi, L Du, M Sachan, R Cotterell
arXiv preprint arXiv:2306.16842, 2023
112023
A Formal Perspective on Byte-Pair Encoding
V Zouhar, C Meister, JL Gastaldi, L Du, T Vieira, M Sachan, R Cotterell
arXiv preprint arXiv:2306.16837, 2023
52023
Structured voronoi sampling
A Amini, L Du, R Cotterell
Advances in Neural Information Processing Systems 36, 2024
32024
Autoregressive Modeling with Lookahead Attention
L Du, H Mei, J Eisner
arXiv preprint arXiv:2305.12272, 2023
22023
On the Representational Capacity of Recurrent Neural Language Models
F Nowak, A Svete, L Du, R Cotterell
arXiv preprint arXiv:2310.12942, 2023
12023
Principled Gradient-based Markov Chain Monte Carlo for Text Generation
L Du, A Amini, LT Hennigen, XV Yu, J Eisner, H Lee, R Cotterell
arXiv preprint arXiv:2312.17710, 2023
2023
Formal Aspects of Language Modeling
R Cotterell, A Svete, C Meister, T Liu, L Du
arXiv preprint arXiv:2311.04329, 2023
2023
Das System kann den Vorgang jetzt nicht ausführen. Versuchen Sie es später erneut.
Artikel 1–10