 Laikallis- ja laikallis- ja laikallis- ja lähdys- pelataan. Lähdys- ja laikallis- ja laikallis- ja laikallis- jälkeen on niin, että pysyvät eivät ole jokaiset. Se on hyvin käytettävää, koska jos sinut joku on aina erittäin tärkeää, laitallis- ja laikallis- ja laikallis- ja hänenkin, että oletys onnistunut ja vain pitäisi ylösäätää, mitä on tistyviä kaputuja, kun oletys vaikea laikallis- ja laikallis- ja laikallis- ja laikallis- ja laikallis- ja laikallis- We need to first understand a couple of concepts from probability. The first two concepts are probability density and cumulative probability. When we have the p-value, the p-value quantifies the probability, the cumulative probability. What is the area under the curve here? And the area quantifies how likely or how probable a value of less than minus one is from a normal distribution centered at one at zero and standard deviation of one. Then the probability density tells us how probable a value of minus one is compared to any other value of the distribution. So probability, cumulative probability tells us what is the probability of getting a value or more extreme from the distribution and probability density tells us what is the probability related to others. So this is not any probability of any particular value because the normal distribution has unlimited range. So getting an exact value is pretty much impossible because there are so many different alternatives. But this tells us the relative probability of getting this value compared to, for example, this value or that value. And we are a lot more likely to get a value of minus one than a value of minus two and we are more likely to get the value of zero, which is the mean, than the value of minus one. We also need to understand the probability of independent events. And the independent events probability also highlights why we need to assume independence of observations. The idea of independent events is that if you have two events, we have two dyes here. So we have dye one, the first dye receives values from one to six. And we have the second dye here receives values from one to six as well. And these dyes are independent. So throwing the first dye doesn't affect the throw of the second dye. And therefore all possible 36 combinations are equally likely to occur because these are fair dyes. So if we have a value of one from the first dye, that is one out of six. And to get a value of one from the second dye, that is one out of six again. And the total probability of two ones is one out of six times one out of six, which is one out of 36 as this figure illustrates. So the probability of two independent events is the product of the probabilities of both events here. And this is an important principle in maximum likelihood estimation. Let's now go on and explain the actual estimation principle. Assume that we have a normal distribution here, which has a mean of zero and standard deviation of one. To get values of two, three and four from this population, the probability density for two is 0.05. For three is 0.004. And for four is 0.001. And the cumulative probability density is the product of these two values. So this value here is the product of that probability density and that probability density. This value here is the product of that probability density plus that probability density. Me ymmärtämme nämä mahdollisimman densitykset ensimmäiseltä, koska nämä ovat ympäristörehtäjät ympäristöryhmä. Eli täydellä mahdollisimman densitykset on se, että se on ympäristörehtäjät. Eli ympäristörehtäjät on 2, 3 ja 4, tämä mahdollisimman densitys kuuntii eri näitä kolme valita, jota on ympäristörehtäjät, kuten eri näitä kolme valita, joita voimme. Eli nämä mahdollisimman densitykset ovat ympäristörehtäjät. Koska siellä on ympäristörehtäjät, se on tietysti ympäristörehtäjät, joka on ympäristörehtäjät. Kun me arvonsaamme lähellä, kun on tämän lähellä, että meillä on lähellä, ja sitten meillä on lähellä, joka on tämän lähellä. Tällä kertaa, että lähellä on tämän lähellä, että lähellä on tämän lähellä, niin ympäristörehtäjät ovat tämän lähellä. Me myös katsomme tämän lähellä, koska me olemme tärkeää esimenteellä tämä kertaa, me ei ole tärkeää, että tämä on tärkeää, että ympäristörehtäjät ovat tärkeää. Me olemme tärkeää niin, että lähellä nimi on tärkeää, sitten tämän lähellä on tärkeää. Tämän lähellä on tärkeää, joka on tärkeää, joka on tärkeätä. Siellä me olemme hökköliin, että mene on tärkeää. katsotaan, jos luokavuus on enemmän. Jos se on, niin tiedä, että mennään se, että mennään sitä. Se on oikeastaan ympäristöminen. Normaalistiivuus on vähän, ja mennään se oikeastaan. Voimme nähdä, että tietysti densitykset näkyvät kaikki nämä observatiivuusjärjestelmiä, sillä on tärkeintä yksinkertaisuus näiden osaamiseen. Ja myös laajemmattomuus on tärkeintä. Voimme vielä tärkeintä laajemmattomuus tai laajemmattomuus voidaan laajemmattomuus saada vähän enemmän. Joten voimme saada vähän enemmän. Ja laajemmattomuus on tärkeintä laajemmattomuus tai tärkeintä laajemmattomuus. Lisäksi aivan aivan laajemmattomuus. Lähkässä on ymmärrä laajemmattomuus, joten se on aivan laajemmattomuus. Ja voimme vielä laajemmattomuus saada vähän enemmän. Ja tämä on laajemmattomuus- saada. Tämä on laajemmattomuus, jota voimme saada ymmärrä laajemmattomuus. Joten seuraavassa on yksi seuraavassa, Me ei ole niin paljon vaikeutumia. Kun menevät nimiä yksinkertaa, se on vaikeutumia. Jos menevät yksinkertaa hieman tai ulos, vaikeutumia on hoitokkoja. Vauhtojen tekemistä, joka vaikeutumia on, on kuitenkin vaikeutumia. Vauhtojen vaikeutumia on se, että vaikeutumia on vaikeutumia tai vaikeutumia on vaikeutumia. We can also express the likelihood as a function of the mean. Here is the likelihood function. We can see the likelihood of getting those three observations pretty much zero here. And it's pretty much zero here. The likelihood peaks only when you're very close to the correct values. When we have the log likelihood, it looks a lot nicer curve, because it actually goes to some direction instead of being flat, even if we're further from the actual correct population value. So that's one reason why we use logarithms for maximum likelihood estimation. So in practice we set some starting value, let's set it at zero for the mean. Then we look which direction does the likelihood go up. We see that it goes up when we go right. Then we go right a bit, we try here. We calculate likelihood here, we check which direction we should go, we calculate it here, and then we discover that if we go further, the likelihood starts to decrease. Then we declare that this is our maximum likelihood estimate. So that's the basic principle of maximum likelihood estimation, trying to estimate mean of normal distribution with standard deviation of one from the three observations. In other videos I will use the same principle for more complicated examples.