본문 바로가기
반응형

전체 글37

vocabulary and tokenizer https://www.educative.io/courses/natural-language-processing-ml/N0Wr9zwpEmv Vocabulary - Natural Language Processing with Machine Learning Become accustomed to the meaning of "vocabulary" for NLP tasks. www.educative.io 예제 코드를 보면서 이해하기 쉬운 사이트 보캡을 어떻게 정의하는지는 여러가지 방법이 존재함. 2022. 1. 7.
what is beam search? https://machinelearningmastery.com/beam-search-decoder-natural-language-processing/ How to Implement a Beam Search Decoder for Natural Language Processing Natural language processing tasks, such as caption generation and machine translation, involve generating sequences of words. Models developed for these […] machinelearningmastery.com 빔 서치를 찾아보면서 위 링크를 통해 이해한 바를 정리한다. 단어를 맞추는 모델이 존재한다. 주어진 입력으.. 2022. 1. 7.
드랍아웃 https://d2l.ai/chapter_multilayer-perceptrons/dropout.html?highlight=dropout 4.6. Dropout — Dive into Deep Learning 0.17.1 documentation d2l.ai 위 링크를 통해 드랍아웃에 대해 정리 종종 학습 데이타의 개수가 적고 네트워크의 파라미터가 너무 많다면 오버피팅 현상이 일어난다. 네트웍이 주어진 테스크 보다 너무 커서 그냥 모조리 외워 버린다랄까. 우리는 네트웍이 지금까지 보지 못한 데이타에 대해서도 잘 수행하기를 원한다. 특성(feature)들의 개수가 적은 경우에도, 딥 뉴럴 네트워크는 오버피팅(overfitting) 될 수 있습니다. 뉴럴 네트워크의 뛰어난 유연성을 보여주는 예로, 연구자들은 .. 2022. 1. 6.
1억 모으기, 너무 더디고 힘들다. https://blog.naver.com/jeunkim/222218377219 “처음 1억 원 만들기, 더럽게 어렵다.” - 찰리 멍거 ※ 원래 글에서는 달러로 분석했지만, 조카가 이해하기 쉽도록 원으로 바꿔 옮깁니다. 1달러를 1천 원으로 ... blog.naver.com 위의 글을 보면 처음 1억을 모으는 것이 얼마나 중요한지 알 수 있다. 그 과정에서 중요한 것은 수익률이 아닌 저축액의 크기라는 것도 분명히 알 수 있다. 나는 나의 투자 여정을 RPG 게임으로 생각한다. 초등학교때 즐겨하던 지금은 모바일로 즐기고 있는 메이플스토리에 빗대어 생각한다. 레벨 1 = 천만원이다. 레벨 10 = 1억, 레벨 10이 되는 순간 1차 전직을 하게 된다. 직업은 투자가이다. 나는 현재 레벨 3정도다. 레벨 10.. 2021. 11. 12.
반응형