Folgen
Hongru Yang
Hongru Yang
Bestätigte E-Mail-Adresse bei utexas.edu
Titel
Zitiert von
Zitiert von
Jahr
Comparison of Accuracy and Scalability of Gauss--Newton and Alternating Least Squares for CANDECOMC/PARAFAC Decomposition
N Singh, L Ma, H Yang, E Solomonik
SIAM Journal on Scientific Computing 43 (4), C290-C311, 2021
20*2021
Continuous regular functions
AB Gorman, P Hieronymi, E Kaplan, R Meng, E Walsberg, Z Wang, ...
arXiv preprint arXiv:1901.03366, 2019
92019
On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks
H Yang, Z Wang
International Conference on Artificial Intelligence and Statistics, 1513-1553, 2023
4*2023
Sharper analysis of sparsely activated wide neural networks with trainable biases
H Yang, Z Jiang, R Zhang, Z Wang, Y Liang
arXiv preprint arXiv:2301.00327, 2023
4*2023
Theoretical Characterization of How Neural Network Pruning Affects its Generalization
H Yang, Y Liang, X Guo, L Wu, Z Wang
arXiv preprint arXiv:2301.00335, 2023
22023
Das System kann den Vorgang jetzt nicht ausführen. Versuchen Sie es später erneut.
Artikel 1–5