bitcoin
bitcoin

$94026.928814 USD

-2.25%

ethereum
ethereum

$3396.316530 USD

1.54%

tether
tether

$0.998508 USD

-0.06%

xrp
xrp

$2.235258 USD

0.87%

bnb
bnb

$683.240526 USD

0.76%

solana
solana

$191.527535 USD

3.94%

dogecoin
dogecoin

$0.320362 USD

1.27%

usd-coin
usd-coin

$0.999950 USD

-0.03%

cardano
cardano

$0.897658 USD

-0.03%

tron
tron

$0.252092 USD

0.51%

avalanche
avalanche

$39.073200 USD

5.44%

chainlink
chainlink

$23.939869 USD

3.74%

toncoin
toncoin

$5.643340 USD

3.40%

sui
sui

$4.510749 USD

4.32%

shiba-inu
shiba-inu

$0.000022 USD

1.95%

Vidéo d’actualité sur les crypto-monnaies

Lecture intensive de l'article : La blockchain Bitcoin Satoshi Nakamoto est en fait un article ? Ce qui a été dit?

Apr 15, 2024 at 02:24 pm Ph.D. Vlog

Bienvenue sur ma chaîne, où j'expliquerai les modèles les plus classiques ou avant-gardistes d'apprentissage automatique et d'apprentissage profond. Je parlerai également de comment vivre aux États-Unis, comment trouver un emploi, comment brosser LeetCode et comment. de s'intégrer rapidement dans la société. Si vous l'aimez, pensez à vous abonner et à liker ! Si vous avez quelque chose que vous voulez entendre, laissez un commentaire ci-dessous !

Liste actuelle des tutoriels :
Régression linéaire (LR), régression logistique (LogR), régression polynomiale (PR), régression Lasso, régression Ridge, réseau élastique (Elastic Net), arbre de décision (DT), forêt aléatoire (RF), arbre d'amplification de gradient (GBT), XGBoost, LightGBM, CatBoost, Support Vector Machine (SVM), Naive Bayes (NB), K Nearest Neighbor (KNN), Analyse en composantes principales (PCA), Analyse en composantes indépendantes (ICA), Analyse discriminante linéaire (LDA), t -Distribué Neighbor Embedding (t-SNE), modèle de mélange gaussien (GMM), analyse de cluster (CA), clustering K-means (K-means), DBSCAN, HDBSCAN, clustering hiérarchique (HC), GAN (Generative Adversarial Network), CGAN, DCGAN, WGAN (Wasserstein GAN), StyleGAN, CycleGAN, VAE (autoencodeur variationnel), GPT (modèle génératif de pré-entraînement), BERT, Transformer, LSTM (réseau de mémoire long à court terme), GRU (unité récurrente fermée), RNN ( Réseau de neurones récurrents), CNN (Convolutional Neural Network), AlexNet, VGG, GoogLeNet, ResNet, MobileNet, EfficientNet, Inception, DeepDream, Deep Belief Network (DBN), Autoencoder (AE), Reinforcement Learning (RL), Q-learning, SARSA, DDPG, A3C, SAC, apprentissage différentiel temporel (TD), acteur-critique, formation contradictoire, descente de gradient (GD), descente de gradient stochastique (SGD), descente de gradient par lots (BGD), Adam, RMSprop, AdaGrad, AdaDelta, Nadam, perte d'entropie croisée, perte d'erreur quadratique moyenne, perte de divergence KL, fonction de perte de charnière, perceptron, réseau neuronal RBF, réseau Hopfield, machine de Boltzmann, apprentissage par renforcement profond (DRL), apprentissage auto-supervisé, apprentissage par transfert, réseau antagoniste généralisé (GAN), réseau génératif contradictoire (GAN), réseau génératif formé (TGAN), CycleGAN, modèle génératif d'apprentissage en profondeur (DLGM), réseau contradictoire génératif d'auto-encodeur (AEGAN), auto-encodeur distribué (DAE), optimiseur d'activation de réseau (NAO) ), Auto-encodeur, VQ-VAE, LSTM-VAE, auto-encodeur convolutif (CAE), auto-encodeur GAN (GANAE), U-Net, réseau Deep Q (DQN), double DQN (DDQN), relecture d'expérience prioritaire DQN (DQN de relecture d'expérience prioritaire), DQN multi-agents (DQN multi-agents), gradient de politique déterministe profond (DDPG), perceptron (Perceptron), auto-encodeur clairsemé (SAE), classification de représentation clairsemée (SRC), réseau de croyance profonde (DBN), machine à vecteurs de support (SVM) ), Apprentissage d'ensemble, Random Forest, Extreme Gradient Boosting Tree (XGBoost), AdaBoost, Gradient Boosting Machine, Stacking, Optimisation bayésienne, Réseau bayésien, algorithme EM (Expectation-Maximization Algorithm), Processus gaussien, Markov Chain Monte Carlo (MCMC), apprentissage par renforcement (apprentissage par renforcement), apprentissage non supervisé, apprentissage semi-supervisé, apprentissage supervisé, apprentissage par transfert, réduction de dimensionnalité, sélection de fonctionnalités), extraction de fonctionnalités, régularisation, normalisation, clustering, classification, régression, réduction de dimensionnalité, cartographie de fonctionnalités, réseau neuronal, Neurone, fonction d'activation, fonction de perte, optimiseur, taux d'apprentissage, taille du lot, nombre d'itérations (époque), hyperparamètre, évaluation du modèle, validation croisée, matrice de confusion, courbe ROC, valeur AUC, précision, rappel, score F1, interprétabilité du modèle, Importance des fonctionnalités, explication locale, explication globale, pipeline d'apprentissage automatique), génération de modèle en un clic (AutoML), optimisation des hyperparamètres (réglage des hyperparamètres), FFT, transformation de Laplace, transformation z, transformation de Fourier, transformation de Fourier à court terme (STFT), IIR, FIR, filtrage de Kalman, algorithme DIP, transformation en ondelettes
Source vidéo:Youtube

Clause de non-responsabilité:info@kdj.com

Les informations fournies ne constituent pas des conseils commerciaux. kdj.com n’assume aucune responsabilité pour les investissements effectués sur la base des informations fournies dans cet article. Les crypto-monnaies sont très volatiles et il est fortement recommandé d’investir avec prudence après une recherche approfondie!

Si vous pensez que le contenu utilisé sur ce site Web porte atteinte à vos droits d’auteur, veuillez nous contacter immédiatement (info@kdj.com) et nous le supprimerons dans les plus brefs délais.

Autres vidéos publiées sur Dec 24, 2024