Bienvenue sur ma chaîne, où j'expliquerai les modèles les plus classiques ou avant-gardistes d'apprentissage automatique et d'apprentissage profond. Je parlerai également de comment vivre aux États-Unis, comment trouver un emploi, comment brosser LeetCode et comment. de s'intégrer rapidement dans la société. Si vous l'aimez, pensez à vous abonner et à liker ! Si vous avez quelque chose que vous voulez entendre, laissez un commentaire ci-dessous !
Liste actuelle des tutoriels : Régression linéaire (LR), régression logistique (LogR), régression polynomiale (PR), régression Lasso, régression Ridge, réseau élastique (Elastic Net), arbre de décision (DT), forêt aléatoire (RF), arbre d'amplification de gradient (GBT), XGBoost, LightGBM, CatBoost, Support Vector Machine (SVM), Naive Bayes (NB), K Nearest Neighbor (KNN), Analyse en composantes principales (PCA), Analyse en composantes indépendantes (ICA), Analyse discriminante linéaire (LDA), t -Distribué Neighbor Embedding (t-SNE), modèle de mélange gaussien (GMM), analyse de cluster (CA), clustering K-means (K-means), DBSCAN, HDBSCAN, clustering hiérarchique (HC), GAN (Generative Adversarial Network), CGAN, DCGAN, WGAN (Wasserstein GAN), StyleGAN, CycleGAN, VAE (autoencodeur variationnel), GPT (modèle génératif de pré-entraînement), BERT, Transformer, LSTM (réseau de mémoire long à court terme), GRU (unité récurrente fermée), RNN ( Réseau de neurones récurrents), CNN (Convolutional Neural Network), AlexNet, VGG, GoogLeNet, ResNet, MobileNet, EfficientNet, Inception, DeepDream, Deep Belief Network (DBN), Autoencoder (AE), Reinforcement Learning (RL), Q-learning, SARSA, DDPG, A3C, SAC, apprentissage différentiel temporel (TD), acteur-critique, formation contradictoire, descente de gradient (GD), descente de gradient stochastique (SGD), descente de gradient par lots (BGD), Adam, RMSprop, AdaGrad, AdaDelta, Nadam, perte d'entropie croisée, perte d'erreur quadratique moyenne, perte de divergence KL, fonction de perte de charnière, perceptron, réseau neuronal RBF, réseau Hopfield, machine de Boltzmann, apprentissage par renforcement profond (DRL), apprentissage auto-supervisé, apprentissage par transfert, réseau antagoniste généralisé (GAN), réseau génératif contradictoire (GAN), réseau génératif formé (TGAN), CycleGAN, modèle génératif d'apprentissage en profondeur (DLGM), réseau contradictoire génératif d'auto-encodeur (AEGAN), auto-encodeur distribué (DAE), optimiseur d'activation de réseau (NAO) ), Auto-encodeur, VQ-VAE, LSTM-VAE, auto-encodeur convolutif (CAE), auto-encodeur GAN (GANAE), U-Net, réseau Deep Q (DQN), double DQN (DDQN), relecture d'expérience prioritaire DQN (DQN de relecture d'expérience prioritaire), DQN multi-agents (DQN multi-agents), gradient de politique déterministe profond (DDPG), perceptron (Perceptron), auto-encodeur clairsemé (SAE), classification de représentation clairsemée (SRC), réseau de croyance profonde (DBN), machine à vecteurs de support (SVM) ), Apprentissage d'ensemble, Random Forest, Extreme Gradient Boosting Tree (XGBoost), AdaBoost, Gradient Boosting Machine, Stacking, Optimisation bayésienne, Réseau bayésien, algorithme EM (Expectation-Maximization Algorithm), Processus gaussien, Markov Chain Monte Carlo (MCMC), apprentissage par renforcement (apprentissage par renforcement), apprentissage non supervisé, apprentissage semi-supervisé, apprentissage supervisé, apprentissage par transfert, réduction de dimensionnalité, sélection de fonctionnalités), extraction de fonctionnalités, régularisation, normalisation, clustering, classification, régression, réduction de dimensionnalité, cartographie de fonctionnalités, réseau neuronal, Neurone, fonction d'activation, fonction de perte, optimiseur, taux d'apprentissage, taille du lot, nombre d'itérations (époque), hyperparamètre, évaluation du modèle, validation croisée, matrice de confusion, courbe ROC, valeur AUC, précision, rappel, score F1, interprétabilité du modèle, Importance des fonctionnalités, explication locale, explication globale, pipeline d'apprentissage automatique), génération de modèle en un clic (AutoML), optimisation des hyperparamètres (réglage des hyperparamètres), FFT, transformation de Laplace, transformation z, transformation de Fourier, transformation de Fourier à court terme (STFT), IIR, FIR, filtrage de Kalman, algorithme DIP, transformation en ondelettes
Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!
Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.