 Olemme nyt katsottaneet esim. faktor-analyysiä, ja esim. konferenttio-faktor-analyysiä. Tämä on tärkeää ymmärrintä, koska siksi joskus tehtävä-analyysiä on ymmärrintä, että se ei ole täysin laittaa dataa. Se on ymmärrintä kai-sikor-statistikin. Se on ymmärrintä, mitä tehdä. Ja ymmärrintä, mitä tehdä, on ymmärrintä, mitä faktor-analyysiä on ymmärrintä, ja mitä rajana on tietysti valitettu dataa. Joten katsotaan, miten konferenttio-faktor-analyysiä on tosittaneet esim. Aina konferenttio-analyysiä on ymmärrintä, että niiden lähevien ymmärrintä on pysynä. Tämä on tärkeä asia, että johon on tärkeää asiaa, tai erikoisia asioita, jos esim. korollisen tehtävä-analyysiä. Meillä on se, että korollisuus on tärkeää, joka on tärkeää, että korollisuus on tärkeää hieman a1a, A1, A2, A1 ja B1, ja A1, joka on se, että variaalit ovat tehtäväksiä tehtäväksiä. Me käyttämme FI, yhdessä yhdessä FI, joka on tehtäväksiä, joka on yhdessä yhdessä yhdessä ja sitten uskimme LAMDAs, joka on tehtäväksiä, joka on myös yhdessä yhdessä, ja nämä kaikki LAMDAs ovat erittäin erittäin erittäin erittäin erittäin erittäin erittäin erittäin erittäin. Korrelation between A1 and A2 is whatever different paths we can go from A1 to A2, so we can go up here and then we go down. That's one path and there are no other paths from A1 to A2. So we multiply everything along the way. So we have one factor loading and then we have another factor loading and that's the lambda A1 lambda A2, that's the correlation A1 and A2, assuming that these are standardized systems. Then A1 B1 is calculated similarly. The path is we take from A1 to A, then we take the correlation and then we take B to B1. So that's the correlation between A1 and B1. Then the variation of A1, we have two different ways to go somewhere and come back. So we can go to A and come back and we can go to the error term E and come back. So that's the variance of A. And how we estimate this model again is that then we calculate a model implied correlation between all indicators and we try to adjust the model so that the correlations match the observed data. Here we have positive decrease of freedom. So we are estimating all together 13 different things from the data. So we have six factor loadings, we have six error terms and then we have one correlation. So six plus six was one is 13 and we have 21 units of information because we have 21 unique elements in correlation matrix of six indicators. So we have six variances and then we have 15 unique correlation. So these don't count because they're not unique. The decrease of freedom is eight, which means that we have a positive decrease of freedom and the model is then overestimated, over identified. That means that we cannot typically solve it exactly. So we cannot find a set of model implied correlations for these correlations so that every correlation would match the observed correlation. So we cannot solve it, we have to just find a way to quantify the difference between the implied correlation and the observed correlation. We could take sum of squares, which would be the unweighted least squares estimator. Typically we take a weighted sum of these implied correlations minus the observed correlations and a particular set of weights produces the maximum likelihood estimator for this particular model. So the idea is that we find the model parameters so that the implied correlations are as close to the observed correlations as possible. To do that there are some other things that we need to consider before we can actually estimate the model. That relates to identification and scale setting that I'll describe in the next video.