Connexion
Souvenir
Inscription
Questions
Sans réponse
Catégories
Utilisateurs
Poser une question
Fidle
Poser une question
Global minimum, trap
0
votes
posée
par
anonyme
16 novembre 2023
dans
01 - Bases, concepts et histoire
Hi,
how do I avoid being trapped in a local minimum with the regression?
Thanks
Votre réponse
Votre nom à afficher (en option)
Envoyez-moi un e-mail à cette adresse si ma réponse est sélectionnée ou commentée
Envoyez-moi un e-mail si ma réponse est sélectionnée ou commentée
Vie privée : votre adresse de messagerie ne sera utilisée que pour l'envoi de ces notifications .
Vérification anti-spam
Pour éviter cette vérification à l'avenir,
Connectez vous
ou
inscrivez vous
.
1
Réponse
0
votes
répondu
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
sélectionné
par
hunoutl[IDRIS]
21 novembre 2023
Meilleure réponse
Linear régression does not have local minimum issue. It is a convex problem
commentée
par
anonyme
16 novembre 2023
Sorry, I don't understand. You say there cannot be a landscape with different convex locations?
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
I am saying that if you use a linear regression, you will never have any issue with respect to local minimum because this is a convex optimization algorithm. That does not mean that your data landscape is convex.
commentée
par
anonyme
16 novembre 2023
Let me ask differently then. If I have multiple parameters and I try to optimise them, what do I do?
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
Well you can try a linear regression if your data is simple enough. But it may not work properly. Then you're going to need more powerful algorithms (like neural network). But there is no magical recipe if that's what you're looking for (otherwise it would be much easier)
commentée
par
anonyme
16 novembre 2023
But aren't we not talking about neural networks now? I am confused now.
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
I misunderstood your question then. I assumed you were talking about linear regression. Then yes with the neural networks, local minimas are a big issue. But we will see in future sessions a few methods which are used to somewhat avoid them (still not 100% sure)
commentée
par
anonyme
16 novembre 2023
I try again. Sorry.
With y=m*x +b there is only one solution, but if I have y(x1, x2, x3) dependent on multiple parameters, I don't think there is only one solution to minimise. Correct?
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
In this case it is a linear regression because you're linearly dependent with respect to your parameter. So it is convex (you're optimizing with respect to parameters not with respect to your inputs) and therefore only one solution.
commentée
par
anonyme
16 novembre 2023
Sorry again. Even if it is polynomial of higher order? x1,x2, x3 are my different observation parameters. Maybe my naming was bad here.
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
If it's polynomial, it's polynomial with respect to input. But Y=MX+B is always linear wrt parameters M.
commentée
par
anonyme
16 novembre 2023
Yes, I can follow, but a polynomial can have more than one solution? Or still not? Things become complicated when multidimensional?
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
Well if your optimisation is polynomial (non-linear) wrt parameters then yeah you can have multiple solution. But in your example, you're polynomial wrt inputs and linear wrt parameters so only one solution with this algorithm.
commentée
par
anonyme
16 novembre 2023
What does wrt mean, please?
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
With respect to
commentée
par
anonyme
16 novembre 2023
To clarify, how should I have indicated my function as multi-dim?
If I write f(para1, para2, para3) you cannot see IMHO you cannot see if it is non-linear.
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
16 novembre 2023
No I don't know if it is non-linear, but I assumed it was because 99.9999% of the time in deep learning it is non linear. Otherwise the linear regression will do just fine.
Votre commentaire sur cette réponse
Votre nom à afficher (en option)
Envoyez-moi un e-mail à cette adresse si un commentaire est ajouté après le mien
Envoyez-moi un e-mail si un commentaire est ajouté après le mien
Vie privée : votre adresse de messagerie ne sera utilisée que pour l'envoi de ces notifications .
Vérification anti-spam
Pour éviter cette vérification à l'avenir,
Connectez vous
ou
inscrivez vous
.
Catégories
Toutes les catégories
Attestations
(14)
Installation FIDLE
(19)
01 - Bases, concepts et histoire
(57)
02 - L’enfer des données, des modèles et des représentations...
(21)
03 - Démo et Illustration
(8)
04 - AI, droit, société et éthique
(5)
05 - Mathématiques, gradients everywhere !!!
(6)
06 - Méthodologie des modèles/apprentissage + fine-tuning + TP
(10)
07 - Réseaux convolutifs CNN
(9)
08 - RNN et Embedding
(10)
09 - Transformers
(13)
10 - Graph Neural Network (GNN)
(10)
11 - Autoencodeur (AE)
(3)
12 - Variational Autoencoder (VAE)
(2)
13 - Generative Adversarial Networks (GAN)
(5)
14 - Diffusion Model (DM)
(3)
15 - Deep Reinforcement Learning (DRL)
(2)
16 - Physics Informed Neural Networks (PINNS)
(4)
17 - Optimisation de l'apprentissage
(2)
18 - Passer à la vitesse supérieure : l’accélération matérielle
(0)
19 - Multi-modalité
(1)
2nd JDLS
(0)
Archives 2022/2023
(77)
Bienvenue sur Fidle Q&A, où vous pouvez poser des questions et recevoir des réponses d'autres membres de la communauté.
...