Utilize este identificador para referenciar este registo: http://hdl.handle.net/10071/26522
Autoria: Susskind, Z.
Bacellar, A. T. L.
Arora, A.
Villon, L. A. Q.
Mendanha, R.
Araújo, L. S. de.
Dutra, D. L. C.
Lima, P. M. V.
França, F. M. G.
Miranda, I. D. S.
Breternitz Jr., M.
John, L. K.
Data: 2022
Título próprio: Pruning weightless neural networks
Título e volume do livro: ESANN 2022 proceedings
Paginação: 37 - 42
Título do evento: 30th European Symposium on Artificial Neural Networks, Computational Intelligence and Machine Learning
Referência bibliográfica: Susskind, Z., Bacellar, A. T. L., Arora, A., Villon, L. A. Q., Mendanha, R., Araújo, L. S. de., Dutra, D. L. C., Lima, P. M. V., França, F. M. G., Miranda, I. D. S., Breternitz Jr., M., & John, L. K. (2022). Pruning weightless neural networks. In ESANN 2022 proceedings (pp. 37-42). https://doi.org/10.14428/esann/2022.ES2022-55
ISBN: 978287587084-1
DOI (Digital Object Identifier): 10.14428/esann/2022.ES2022-55
Resumo: Weightless neural networks (WNNs) are a type of machine learning model which perform prediction using lookup tables (LUTs) instead of arithmetic operations. Recent advancements in WNNs have reduced model sizes and improved accuracies, reducing the gap in accuracy with deep neural networks (DNNs). Modern DNNs leverage “pruning” techniques to reduce model size, but this has not previously been explored for WNNs. We propose a WNN pruning strategy based on identifying and culling the LUTs which contribute least to overall model accuracy. We demonstrate an average 40% reduction in model size with at most 1% reduction in accuracy.
Arbitragem científica: yes
Acesso: Acesso Aberto
Aparece nas coleções:ISTAR-CRI - Comunicações a conferências internacionais

Ficheiros deste registo:
Ficheiro TamanhoFormato 
conferenceobject_91315.pdf1,44 MBAdobe PDFVer/Abrir


FacebookTwitterDeliciousLinkedInDiggGoogle BookmarksMySpaceOrkut
Formato BibTex mendeley Endnote Logotipo do DeGóis Logotipo do Orcid 

Todos os registos no repositório estão protegidos por leis de copyright, com todos os direitos reservados.