제 채널에 오신 것을 환영합니다. 머신러닝과 딥러닝의 가장 고전적이거나 최첨단 모델을 설명할 것입니다. 또한 미국에서 사는 방법, 직업을 찾는 방법, LeetCode를 닦는 방법 및 방법에 대해서도 이야기하겠습니다. 빠르게 사회에 적응할 수 있습니다. 마음에 드셨다면 구독과 좋아요 잊지마세요! 듣고 싶은 내용이 있다면 아래 댓글로 남겨주세요!
현재 튜토리얼 목록: 선형 회귀(LR), 로지스틱 회귀(LogR), 다항 회귀(PR), Lasso 회귀, 능형 회귀, 탄력적 네트워크(Elastic Net), 의사결정 트리(DT), 랜덤 포레스트(RF), 그래디언트 부스팅 트리(GBT), XGBoost, LightGBM, CatBoost, SVM(지원 벡터 머신), NB(Naive Bayes), KNN(K Nearest Neighbor), PCA(주성분 분석), ICA(독립 성분 분석), LDA(선형 판별 분석), t -분산 이웃 임베딩(t-SNE), 가우스 혼합 모델(GMM), 클러스터 분석(CA), K-평균 클러스터링(K-means), DBSCAN, HDBSCAN, 계층적 클러스터링(HC), GAN(Generative Adversarial Network), CGAN, DCGAN, WGAN(Wasserstein GAN), StyleGAN, CycleGAN, VAE(변형 자동 인코더), GPT(생성 사전 훈련 모델), BERT, Transformer, LSTM(장단기 기억 네트워크), GRU(gated Recurrent Unit), RNN( 순환 신경망), CNN(컨볼루셔널 신경망), AlexNet, VGG, GoogLeNet, ResNet, MobileNet, EfficientNet, Inception, DeepDream, DBN(Deep Belief Network), Autoencoder(AE), 강화 학습(RL), Q-learning, SARSA, DDPG, A3C, SAC, 시간적 미분 학습(TD), 배우 평론가, 적대적 훈련, 경사하강법(GD), 확률적 경사하강법(SGD), 배치 경사하강법(BGD), Adam, RMSprop, AdaGrad, AdaDelta, Nadam, 교차 엔트로피 손실, 평균 제곱 오류 손실, KL 발산 손실, 힌지 손실 함수, 퍼셉트론, RBF 신경망, Hopfield 네트워크, Boltzmann 머신, 심층 강화 학습(DRL), 자기 지도 학습, 전이 학습, 일반화된 적대 네트워크 (GAN), Adversarial Generative Network(GAN), Trained Generative Network(TGAN), CycleGAN, Deep Learning Generative Model(DLGM), Autoencoder Generative Adversarial Network(AEGAN), Distributed Autoencoder(DAE), Network Activation Optimizer(NAO), Autoencoder, VQ-VAE, LSTM-VAE, Convolutional Autoencoder(CAE), GAN Autoencoder(GANAE), U-Net, Deep Q Network(DQN), Dual DQN(DDQN), Prioritized Experience Replay DQN(Prioritized Experience Replay DQN), 다중 에이전트 DQN(Multi-agent DQN), DDPG(Deep Deterministic Policy Gradient), Perceptron(Perceptron), SAE(Sparse Autoencoder), SRC(Sparse Representation Classification), DBN(Deep Belief Network), SVM ), 앙상블 학습, Random Forest, Extreme Gradient Boosting Tree(XGBoost), AdaBoost, Gradient Boosting Machine, Stacking, Bayesian Optimization, 베이지안 네트워크, EM 알고리즘(Expectation-Maximization Algorithm), Gaussian Process, Markov Chain Monte Carlo(MCMC), 강화 학습(강화 학습), 비지도 학습, 준지도 학습, 지도 학습, 전이 학습, 차원 축소, 특징 선택), 특징 추출, 정규화, 정규화, 클러스터링, 분류, 회귀, 차원 축소, 특징 매핑, 신경망, 뉴런, 활성화 함수, 손실 함수, 최적화 도구, 학습률, 배치 크기, 반복 횟수(에포크), 초매개변수, 모델 평가, 교차 검증, 혼동 행렬, ROC 곡선, AUC 값, 정밀도, 재현율, F1 점수, 모델 해석성, 기능 중요도, 로컬 설명, 전역 설명, 기계 학습 파이프라인), 원클릭 모델 생성(AutoML), 하이퍼파라미터 최적화(Hyperparameter Tuning), FFT, 라플라스 변환, z 변환, 푸리에 변환, 단시간 푸리에 변환(STFT), IIR, FIR, 칼만 필터링, DIP 알고리즘, 웨이블릿 변환