 Okey, saya sedang kembali. Saya mula melihat banyak masa yang mengenai. Tapi mari kita berhenti dalam bahagian lebih teknikal hari ini. Ini tentang kaitan Hitchhiker untuk menggantikan network keadaan keperluan. Mereka sangat penyakit dan penyakit. Mereka mereka mereka sangat popular juga ini. Tapi mari kita mulakan dan lihat seberapa sehingga kita dapat fahamkan kaitan ini. Jadi, yang terbaik yang anda mungkin dengar adalah bahawa saya bekerja untuk Semantics 3. Kita bekerja dengan perusahaan keperluan yang dipercaya. Kita melakukan banyak perusahaan keadaan keperluan, data tersebaru dan juga perusahaan keperluan yang di-hubung. Kita bantu mereka membawa banyak masalah otomatik. Macam kataklisasi, jenis perusahaan, jenis perusahaan otomatik dari produk. Dan tentu saja, jenis perusahaan otomatik. Perusahaan diberi adalah salah satu pula kekuatan. Tapi saya rasa ini adalah sesuatu yang anda mungkin menarik di-di-di di atas. Saya rasa anda boleh buat. Jangan risau. Jadi, mari saya beri anda satu kejadian bagaimana hari ini akan dipindahkan. Kita akan mulakan dengan perusahaan generik mengenai kenapa kita mempelajari netwaks generasi. Apa yang saya maksudkan oleh netwaks generasi dan apa yang berguna? Dan kemudian ada perkara segera yang sederhana. Tolong jangan pergi. Saya rasa ia akan menjadi sedikit matahari tapi sepatutnya akan menarik. Bagaimana netwaks yang diberi, bagaimana perusahaan mereka adalah menerimanya dan keperluan ke sistem. Dan kemudian, saya tidak mahu anda pergi kerana ada keadaan besar di tahun lalu. Dan kemudian, saya ingin memotuatkan mereka dengan aplikasi bagaimana mereka dapat diperlihatkan. Dan ini sepatutnya sebuah banyak demok. Dan nampaknya, ini adalah sebuah guide. Ini seperti di seluruh tempatan. Saya akan mempunyai link di setiap perusahaan. Dan kemudian, semuanya menarik anda ke arah yang betul. Dan kemudian, keadaan tidak akan menjadi perkara paling menarik. Maksud saya, keadaan sangat menarik tapi mereka akan menjadi solusi untuk segala-galanya yang anda lihat. Jadi, mari kita lihat masalah yang diperlihatan. Dan, tentu saja, keadaan dan perjalanan akan bergerak ke perniagaan yang diperlihatan. Nampaknya, masalahnya masih berlaku. Jadi, masalahnya ada di sana. Mari kita lihat masalah generasi. Jadi, apa yang kita maksudkan oleh masalah generasi? Jadi, mari kita dapatkan semua orang yang aktif di sini. Bagaimana anda mulakan menerima? Di belakang, kita mempunyai... ...saya fikir ia adalah sebuah penjara. Di sisi-sisi, ia mempunyai bahagian. Bagaimana anda menerima? Bagaimana anda menerima? Bagaimana anda menerima? Bagaimana anda menerima? Bagaimana anda Imp Khan? Bagaimana anda menerima? Bagaimana anda nak menerima? Bagaimana anda menerima? Bagaimana anda menerima? Bagaimana anda menerima? Bagaimana anda mempunyai? Bagaimana anda mempunyai? Memang acara-acara וَقْفْرَطْتَمْ تَلْقْ tror Memang acara وَكَرْصَطْتِ ذَرْطْتُ Memang acara danít cine kegem worsti, Memang Turns Change, Yang satu ini dibuat oleh bot dan kemudian di sini saya meletakkan lembaga. Saya tidak ingat yang mana-mana. Ada sesiapa yang berkata? Pada jalan-jalan. Pada jalan-jalan. Sangat bagus. Kemudian, itu lagi beberapa pelajaran yang telah dibuat dan kemudian orang-orang sangat susah untuk membuat ini. Jadi mari kita pergi ke mode insane. Dan di sini saya tidak tahu. Yang sangat berguna. Yang satu adalah pembentangan yang sangat ekspensif dan yang lain adalah 30 saat dalam prosesor penting. Jadi mari kita lihat ini dan kemudian ternyata, ia adalah yang di-onek. Jadi itu nampaknya... Di sini, jika anda lihat banyak slides saya, nanti saya ada deskripsi di mana slides di sini. Ia di website Ant Hills. Jadi jika anda mencari, anda akan dapat melihat pabok yang mengenai ini. Dan kemudian ini baru-baru keluar di May ini saya rasa. Lgamil dan sebuah grup berkumpul untuk membuat perjalanan ini. Dan banyak orang berkumpul pada pabok yang salah. Jadi ini lagi, bagaimana jenerita network generasi. Anda ingin dapat melakukan perjalanan yang tinggi dan tinggi. Membuat duit itu. Jadi kenapa kita ingin membuat perjalanan generasi? Kita ingin memahami dan mengenai informasi kompleks. Kita ingin dapat melakukan perjalanan, bukan hanya pelajaran, bukan hanya penyelamatan, bukan hanya melihat perjalanan yang tidak terlalu banyak. Kita ingin dapat mengenai jika ada sebuah langkah lain yang mengenai mereka. Dan kemudian, kebanyakan masa ini, ada kebanyakan yang tinggi dalam perjalanan yang dilatih. Jadi kemungkinan-kemungkinan adalah tidak lagi kecuali fungsi satu atau dua barang. Apa yang kita ingin mengenai? Apa yang kita ingin mengenai di 100 atau 1000? Kita ingin dapat mengenai mereka dengan segera. Dan mungkin itu membantu kita. Akhirnya, seperti dalam perjalanan sebelah, kita tidak ingin hanya mengenai mereka. Kita ingin mungkin mengenai penyelamatan yang lain tergantung pada keterangan. Dan saya rasa ini menghidupkan ke dalam perjalanan sebelah juga untuk mengenai penyelamatan. Kerana salah satu pilihan yang menggunakan gans adalah untuk mengagumkan perjalanan dunia. Jadi jika anda mempunyai perjalanan penyelamatan, apabila penyelamatan mulai mengenai, mungkin gans dapat membantu mengenai dan simulasi perjalanan di mana penyelamatan mengenai. Jadi mereka menghidupkan bersama-sama dengan baik-baik. Jadi, mengenai perjalanan untuk mereka. Bagus untuk mengenai mereka. Kemudian, biar saya memotu-motivasi bagaimana mereka akan diperkenalkan. Saya akan mengambil contoh yang sangat muda dengan saya. Ia akan berjaya dengan saya segera, tapi mari kita ambil poin ini. Ada banyak poin yang diperkenalkan. Dan kemudian, poin yang kita mahu mengenai. Pada masa ini, ada poin data yang diperkenalkan. Sekarang, satu cara untuk membuatnya adalah sesuatu yang sangat popular. Itu kemungkinan maklumat. Jadi, apabila kita melihat poin yang diperkenalkan, kita memperkenalkan poin yang diperkenalkan. Jadi, apabila kita melihat poin yang diperkenalkan, ia mempunyai cara poin yang diperkenalkan dalam kemungkinan itu. Dan ini sangat berkembang. Ini adalah kemungkinan maklumat yang paling popular untuk cara fungsi generasi diperkenalkan. Sebenarnya, anda dapat mempunyai kemungkinan fungsi distribusi P. Kemudian, P berdasarkan parameter theta. Kemudian, anda akan menerima model P yang bergurau untuk menggunakan kondisi X. Kita mahu mempunyai parameter theta. Kita mahu mempunyai parameter ini untuk melakukan sesuatu seperti operasi yang sebenar, kemudian kita membuat kemungkinan kecil, kemudian kita mahu mempunyai parameter theta. Dan kita mahu mempunyai P. Dan dari P kita dapat distribusi, dan dari sana kita dapat poin yang diperkenalkan. Jadi, ada dua jalan. P boleh diperkenalkan kemungkinan yang diperkenalkan atau kita mahu memperkenalkan P. Pada jalan di lantai, ia membina kemungkinan kecil. Dan di sana, ada cara-kala cara menarik. Dan kemudian di sini, di node Routenode, anda lihat semua kemungkinan yang lebih popular, saya hanya berhati-hati pada beberapa hari sekarang supaya anda dapat faham berada di mana semuanya dibuat. Jadi apabila anda melihat operasi yang mempunyai kemungkinan kecil, anda boleh berhasil sebagai metod yang menghargai. Jadi jika anda melihat kemungkinan kecil Mereka keluar dengan WavNet. WavNet adalah di mana anda menerima teks dan ia bercakap dengan audio yang sangat realistik. Orang bercakap dengan seorang yang bercakap dengan seorang yang bercakap dengan seorang yang bercakap dan tidak seperti wawankan Microsoft. Mereka baik sekarang tapi wawankan wawankan yang anda gunakan sepenuhnya. WavNet tergantung pada perjalanan ini, di mana mereka mempunyai percayaan yang sangat visib, yang sangat popular, WavNet. Tapi masalahnya ia tergantung pada kemungkinan untuk menggunakan setiap input. Jadi ia seperti sebuah pelajar yang menunggu untuk menggunakan fungsinya eksplosif. Masalah yang sangat popular adalah percayaan auto-encoder yang bukan memenuhi. Jadi kita tidak mahu mendapatkan kemungkinan yang sempurna. Kita mempunyai fungsinya yang lain, yang ialah percayaan yang lebih rendah. Kita panggil itu mungkin L. Dan kemudian percayaan percayaan percayaan itu telah dipercayaan untuk menjadi optimistik dalam beberapa kecumaan. Bukan semua. Tapi idea itu adalah anda mempunyai fungsinya. Dan kemudian percayaan auto-encoder di setiap percayaan yang lebih rendah pada kemungkinan untuk menggunakan fungsinya eksplosif. Itu adalah percayaan yang lain untuk sekarang. Pada kata-kata, lagi, mereka mempunyai percayaan percayaan yang sangat sama. Mereka membuat resampling dan ada dua percayaan untuk itu. Tapi untuk sekarang, FBBN, percayaan auto-encoder, mereka sangat popular kerana mereka telah memberi kemungkinan yang sangat baik juga. Percayaan eksplosif, apa maksud saya? Jadi, tanpa menggabungkan bahawa P ada, atau bukan mempunyai untuk membuat kemungkinan P, kita hanya menggabungkan bahawa P ada. Jadi, kita katakan, okey, mungkin ada FB. Saya tidak peduli tentang kemungkinan kemungkinan kemungkinan P. Saya menggabungkan saja untuk mengambil penyelidikan. Jadi, lagi, anda mempunyai network stochastik, kemungkinan markup, dan kemudian, dalam sebuah segmen sub-3 yang kita menggabungkan kemungkinan kemungkinan kemungkinan kemungkinan dan kita mulai menggabungkan bahagian kemungkinan kemungkinan. Itu yang kami lahirkan untuk menjadi senjata. Jadi, kita akan melihat kemungkinan di dalam konteksi ini. Jadi, jika kita mulai dari generasi kemungkinan kemungkinan, kemungkinan seperti ini, semasa mereka menggabungkan kemungkinan kemungkinan kemungkinan kemungkinan, banyak kali, saya rasa anda berjaga berapa banyak kali berkata itu. Jadi, ia adalah cara kemungkinan kemungkinan yang sepatutnya untuk berfungsi. Lagi, seorang pelajar dan dapur yang sangat popular dengan tutorial NIP. di atas link, anda patut melihatnya. Ia lebih daripada saya dapat menggantikan dalam 40 minit. Jadi bagaimana kita melakukan ini? Jadi apabila saya meletakkan WavNet yang sangat popular, kemungkinan ia mengambil dua minit untuk menggantikan satu kedai audio. Jadi ia sangat susah untuk menggunakan hidup sebenar. Ia sangat popular dan beri sangat baik alasan, tetapi kompleksiti komputasi itu seperti masalah. Menjelaskan konsistensi asymptotik, apabila saya meletakkan ini, ada tentu-tentu bahagian yang lebih tinggi dan anda berharap untuk menggantikan secara optimisasi dalam termasuk auto-encoders dan VAE. Mereka tidak beri anda sebuah alasan. Mereka semestinya anda berharap mendapat mereka, tetapi kemungkinan ia tidak 100%. Dan Markov Chain, kerana re-sampling mereka dan kemungkinan yang berlainan, mereka mengambil masa yang lama untuk menggantikan. Jika anda bermain dengan Markov Chain, anda tahu anda tidak tahu berapa banyak permainan untuk bermain dengan Markov Hydration. Terima kasih, terima kasih. Link di bawah. Mereka tidak berlainan. Mereka juga berlainan untuk berlainan. Mereka tidak berlainan untuk berlainan. Dan kemungkinan tidak akan sempurna. Ini hanya sebuah alasan mengapa kemungkinan tidak berlainan daripada masalah ini, tetapi kemudian pada akhir, anda akan melihat masalah yang mereka memiliki sendiri. Jadi sekarang kita dapat menerima. Generatif adversarial network. Sebenarnya, untuk beri anda idea, ini seperti alasan yang berlainan pada tahun lalu. Ia benar-benar berlainan dengan generatif cumulatif nama. Mereka mula menyebabkan nama untuk generatif sim, generatif discol, generatif cykl, generatif DC, dan kemudian mereka memutuskan, mari kita melihat chart. Sebenarnya, setelah tahun 2017, anda melihat ini di sini. Ia seperti alasan. Mereka tidak memiliki idea untuk menerima alasan mereka. Kami menerima alasan untuk generatif. Jadi, jika anda boleh memikirkan, pastikan anda menerima alasan dan menerima alasan. Mari kita lihat alasan generatif sekarang. Dan tentu saja, ia sangat menarik pada tahun lalu. Ia adalah periksa komputer dan periksa rekomendasi pada tahun lalu. Dan kemudian, Apple memulihkan penerima alasan mereka sendiri. Pada tahun lalu, yang juga menerima alasan yang terbaik pada tahun lalu, ia berlainan dengan generatif. Jadi, mereka memulihkan alasan untuk generatif lain. Dan kemudian, ia sangat efektif untuk menerima alasan mereka sendiri. Jadi, hal yang berlainan sangat cepat, dan saya rasa sebelum saya selesai bercakap, mungkin akan ada 3 atau 4 pre-print. Jadi, mari kita lihat alasan dan lebih detail. Saya ingin bercakap tentang alasan, bagaimana mereka menerima, bagaimana alasan yang digunakan. Seperti yang paling mudah, seperti yang saya katakan, adalah network adversarial. Jadi, mereka akan menjadi dua pelajar di sini. Dengan pelajar, saya bermaksud dua model, dua network neural, dua sistem. Sekarang, kita hanya memutuskan mereka sebagai pelajar. Jadi, ada D dan G. Sekarang, dengan cepat, saya menerima alasan saya. Mari kita lihat. Jadi, alasan adversarial dapat menjadi memulihkan dengan sebuah alasan pelajar. Untuk mereka, anda mempunyai idea. Ia seperti sistem nasi antara dua pelajar yang berlainan. Ada alasan berlainan yang berlainan, semuanya yang berlainan dengan solusi stabil. Kemudian, dua alasan untuk generatif dan diskriminator. Di sini, ada alasan yang berlainan. Kemudian, mereka selalu berlainan bersama. Di sini, mereka berlainan untuk berlainan dengan seorang lain. Ada juga pendapatan yang anda boleh fikirkan sebagai alasan berlainan. Tapi sejauh ini, cara anda memikirkan seperti seorang alasan yang berlainan dengan seorang lain, ia membuat kejadian lebih mudah. Dan ia memperkenalkan untuk memperkenalkan yang lain. Jadi, jika anda fikirkan alasan ini, mari kita lihat alasan ini lagi. Jadi, ini adalah cara anda boleh mengajar cara anda boleh mengajar bersama. Jadi, mari kita lihat alasan yang tersebut. Di mana kita ada alasan ini. Jadi, anda boleh fikirkan alasan ini sebagai alasan kejadian. Mari kita nama alasan yang berlainan dan saya akan menghubungi oleh alasan yang mudah. Dan kemudian alasan ini menjadi alasan yang berlainan. Dan kemudian alasan itu mempunyai alasan gfz. Dan kemudian ia memulangkan alasan generasi. Jadi, ia memulangkan alasan yang berlainan sebegitulah pada alasan yang berlainan pada alasan yang tersebut. Jadi, ia memulangkan alasan generasi. Di sisi lain di sini anda memiliki alasan yang berlainan. Dan semua ini adalah alasan real atau alasan yang benar. Jadi, ini bukan alasan yang tersebut tapi alasan yang benar. Dan kemudian alasan yang benar akan diperkenalkan alasan yang benar. Jadi, apa yang terjadi adalah anda memiliki alasan ini di atas. Itu adalah alasan kedua kami yang akan dipanggil alasan kami. Alasan yang benar adalah alasan real adalah alasan fungsinya atau alasan output dari alasan generasi yang menjadi alasan gfz. Jadi, anda memiliki alasan gfx atau alasan gfz. Anda memiliki alasan yang benar atau alasan yang tersebut dan kemudian ia seperti alasan kelasifikasi. Ia berlainan sebegitulah atau alasan yang benar. Ia berlainan lagi dan lagi. Dan kemudian, alasan yang benar akan diperkenalkan. Jadi, mari kita melihat alasan yang lebih mudah untuk memikirkan dulu atau alasan yang benar yang adalah alasan di atas. Ia berlainan sebegitulah apakah alasan yang benar atau alasan gfz. Jadi, apabila alasan itu dari alasan gfz, ia ingin mengatakan alasan gfz. Apabila alasan itu dari alasan gfz, ia menyebabkan alasan ini sebagai alasan gfz. Jadi, ia seperti alasan yang berlainan sebegitulah. Dan kemudian, ia akan mengatakan alasan gfz yang lebih mudah untuk membahas alasan gfz. Dan ini akan mengajar alasan gfz yang lebih mudah untuk membahas alasan gfz. Jadi, ia akan menyebabkan alasan gfz dan ia akan mengubah alasan gfz. Oleh itu, maka alasan gfz adalah sebuah alasan gfz yang lebih mudah untuk mengubah alasan gfz. Andang-dang, ilmu-ilmu, mempunyai cara lebih mudah untuk mempunyai bagaimana fungsi terakhir yang perlu diletakkan untuk diskriminator. Jadi anda boleh memikirkan ini sebagai pengalaman terakhir yang akan dikalkulasi dan kembali kembali ke dalam network untuk update diskriminator. Jadi kita mempunyai diskriminator. Ia berjalan-jalan. 1, 0, 8, 1, diskriminator. Kemudian kita mempunyai generator. Untuk generator, idea itu adalah untuk mempunyai diskriminator. Jadi kita boleh menggunakan seperti yang dipercaya untuk memikirkan. Jadi apa yang generator buat? Ia perlu mempunyai diskriminator. Dan cara yang paling mudah adalah mempunyai diskriminator sebagai negatif. Jadi anda ambil fungsi diskriminator, anda meletakkan kembali ke dalam, anda panggil untuk generator. Ini seperti sebuah game minmax di mana anda memastikan bahawa satu dari mereka dapat mempercaya yang lain. Ada beberapa masalah dengan ini kerana anda memikirkan mereka sebagai dua network separat. Jadi jika diskriminator menjadi optimal, kemudian generator berhenti belajar. Kerana salah satu dari mereka menjadi zero, anda meletakkan kembali negatif. Itu tidak penting, tetapi masih zero. Jadi anda memikirkan generator yang telah memikirkan tidak lagi belajar. Jadi ada beberapa motivasi heuristik untuk mendapat cara lain untuk mempunyai fungsi yang terakhir untuk generator. Dan salah satu dari mereka adalah ini. Jadi gfz. Itu fungsi yang terakhir untuk generator. Dan dfgfz perlu menjadi satu. Ingat bahawa ini berbeza kerana generator ingin mempunyai diskriminator. Jadi dia ingin memperkenalkan orang yang menjadi satu. Jadi anda menulis sebuah fungsi heuristik dan ini berkata-kata bahawa kemungkinan perlu menjadi satu untuk output generator. Ini adalah cara generator berkata-kata tentangnya. Ada cara lain, seperti yang saya katakan, ini berformulasi dalam percumaan kebiasaan kemungkinan. Jadi anda boleh meletakkan kemungkinan yang anda ada di sini seperti fungsi sigmoid logistik di atas output. Ini hanya untuk kemungkinan supaya anda faham bahawa ini sebenarnya fungsi yang berkata-kata kemungkinan yang anda berkata-kata. Jadi ini adalah cara untuk meletakkan. Jadi anda boleh memikirkannya seperti cara yang terkenal untuk generator. Jadi sekarang kita mempunyai dua fungsi yang terakhir. Satu untuk diskriminator. Satu untuk generator. Apa yang kita lakukan? Stochastic gradient descent. Yang paling terkenal. Jadi kita ambil dua batu-batu. Kita ambil satu dari samples sebenar X. Waktu itu kita kemungkinan mengenai generator yang terakhir, kita ambil satu dari output. Jadi kita mempunyai banyak batu-batu. Satu sebenar, satu batu-batu. Kita mengambil melalui diskriminator. Ini beri anda jawapan dan alam. Kemudian betul-b unbox, anda boleh memandu untuk menghubungi Tu-2-kone. Jadi anda mengalami pengalaman untuk generator. Anda menggunakan untuk mengukemungi komputer untuk generator. Anda mengalami pengalaman untuk diskriminator. Anda menggunakan untuk mengubik pengalaman untuk diskriminator. Jadi anda memetakkan dengan setiap kemungkinan Apa-apa fungsi terakhir yang digalakkan dapat digalakkan untuk mengubah network-network. Dan keadaan keadaan keadaan ini adalah sebabnya ia mempunyai keadaan bersama. Untuk masa lama, saya tidak ada di sini, tapi ini keadaan keadaan pada tahun 2014. Saya rasa apabila Ian Goodfell yang lain mengharapkan sistem keadaan keadaan ini, keadaan keadaan itu tidak cukup sukses dan mudah untuk mereka. Ada sesuatu yang dipanggil lab GANs atau Laplacent Pyramid Operators dan membuat perasaan yang lebih mudah dan semuanya tidak terlalu terlalu lama lagi. Apabila kita mempunyai network yang menghabiskan dan membuat perasaan yang lebih mudah untuk mereka. Jadi, ini adalah masa yang keadaan pada tahun 2015 apabila seseorang mempunyai bahwa anda membuat semua perasaan yang berlaku, membaikkan atau membaikkan yang anda ada, dan kemudian, anda mula membuat perasaan yang berlaku dan keadaan perasaan yang seperti ini membuat perasaan yang lebih mudah, lebih tinggi dan lebih mudah untuk mereka menghabiskan. Jadi, hanya beberapa perasaan di sini. Jadi, apa yang berlaku di sini? Ini adalah network dari generasi. Jadi, kita mempunyai dua network. Ini mungkin generasi. Jadi, anda lihat di sini, ia mengambil sebuah zek dan kemudian ia membuat banyak perasaan yang berlaku, seperti perasaan yang berlaku di sini. Ia membuatnya lebih besar dan lebih besar. Jadi, anda boleh memikirkan perasaan yang baik seperti perasaan yang berlaku di generasi. Jadi, perasaan ini akan kemudian membuat sebuah perasaan yang lebih tradisional dan kemudian itu adalah yang menggantikan walaupun sebuah perasaan yang benar atau sebuah perasaan yang baik. Jadi, ini seperti perasaan yang lebih terkenal yang dibuat untuk membuatnya berlaku bersama-sama. Jadi, itu tentangnya. Saya harap itu bukan terlalu banyak detail teknikal tapi sekarang lagi, kita melihat aplikasi yang sangat menarik. Jadi, dengan perasaan itu bagaimana generasi dan diskriminasi sekarang berlaku bersama-sama, kita memiliki idea perasaan yang berlaku dan mari kita lihat bagaimana itu berlaku untuk aplikasi dunia sebenar. Dan perkara pertama, yang juga dari pemerintah yang saya memikirkan untuk menggantikan perasaan, dan apabila saya melihat ini, saya merasakan untuk beberapa minit. Saya perlu duduk dan berfikir tentangnya. Jadi, apa yang berlaku adalah bahawa jika anda ingat wad duvek dan semua komplikasi yang berlaku bersama-sama, kami akan melihat perasaan dan anda akan melihat perasaan yang sangat kuat. Jadi, apabila generasi memulai orang yang dapat mengajar cara yang berlaku bersama-sama. Mari kita berikan contoh. Jadi, ada banyak gambar. Semua ini adalah gambar yang diperlukan. Tak ada gambar sebenar. Jadi, semua gambar ini diperlukan oleh gambar yang diperlukan untuk keadaan keadaan keadaan keadaan. Jadi, anda ada gambar yang mengambil perasaan dan berikan gambar dengan penyelamannya. Kemudian, untuk beberapa hal lain di gambar, hanya berikan gambar dengan menyelamakan. Jadi, apa yang anda lakukan? Anda membawa dan kemudian Anda dapat melihat tempat tangan ini. Apabila anda mendapat keadaan wanita dengan kelas dari tempat keadaan keadaan keadaan keadaan keadaan keadaan keadaan keadaan, generasi menerima untuk dapat menghubungkan seperti ini. Jadi, jika anda ingat cara wad duvek yang mengambil perasaan dan biasa... Saya dah lakukannya tapi ia ada cara anda berikannya bahawa tempat keadaan dapat mengidentifikasi komponen yang penting di tempat setiap keadaan. It's not just segments of the image or it's not just lines and edges which are being identified but it's really the concepts of the image and this seems to be quite interesting of how the generative networks are learning. There's another recent paper, most of it is going to be this. So I'll just assume that the link will be there. So you take like a very strong image or very high quality image. So this is like a very good painting I guess. I think the painting. And then you down sample the painting. Say it's 1000 by 1000 pixels. You make it much smaller, 200 by 200 like that. And then you put it into Photoshop and then you run the micubic interpolation or some simple method. I hope it's clear but this is very blurry. So this photo turns out when you approximate each point by the neighbors you get a blurry result. However, it is possible to take this sort of blurry down sample images, run it through something which is called an SR GAN. So many named GANs. So you run through it SR GAN and then it starts generating much more clear images. So it start giving high resolution images which sort of end up being significant improvements over what was previously proposed. So super resolution seems to be possible now. Interactive GANs. I guess all of us went to school at some point and then you remember there was this art class and the digital cell you draw a painting and then everyone goes to the scenery. Draw a river, draw two mountains, draw the sun. If you're really fancy, you draw birds in a house in front of it. So again, looks like the GANs are beating us at it. So over here what you see is actually a person conveying his intent over like a vector space, over the noise vector space again and by simply telling them what colors they want they're able to do things like real-time editing of images. So by simply drawing a white line it sort of adds snow to the mountain. By drawing green lines over here it becomes like a field. The interesting part was that for each of these updates it was of the order of seconds. So we're literally able to do near real-time edits of the images. So that's what Interactive GANs. I think there was another impressive video where they took a photo of a lady and then they started adding black color and then they had a chain of blonde to black. Again, very impressive results. So these are like the rough images but it actually started generating high-resolution images once you let it settle down. Image to image translation. Again, very popular. Most of you might have already seen it. It's also referred to as pics to pics and then this is sort of what was being done. So on the left-hand side we have inputs. On the right-hand side we have expected outputs from the generator. Again, this is not a real picture of a street with cars on it. A person sort of describe how it will look through segments and then it starts modeling it and starts outputting images which are trained to fake people. Similarly, if you have spatial photographs say you have a new satellite and it starts taking photographs of the Earth and then you start seeing roads and maps being auto-generated. It can go even further. It can even start doing impressive results which are being done in Photoshop like if you want to convert from black and white to color if you want to go from a day scene to a night scene if you're an architect and you design a house and then you want to add where the doors and windows are going. It may look impressive here but if you zoom in there might be something very weird about it but I guess it's part of the process of how these guys are still learning. Of course you can do things like this where you draw a rough sketch of how it might look in the given domain. It's a great website over here. You can go and try it. They have very impressive other models not just the examples here. Text to image synthesis. So a few years ago there was a very popular article where you give a photo and then you start describing the photo automatically. I think Facebook even now does it. If you upload a photo to Facebook it starts telling you sort of describe what's happening there. We'd like to do it in reverse here. So what we do is that we start writing sentences and these vectors sort of condition our inputs. So when we feed to the generator we sort of add conditional inputs into the vectors and then these sort of vectors the text vectors which are encoded in some vector space they start determining the output of how the image is going to look like so you start with describing this and then it starts coming out with realistic photos of how a bird with a red beak and with like a black feather standing out there. It's also possible very impressively for flowers and some other aspects. So this is literally translation in the context of going from text descriptions to being able to go to images. Again these are again very terrific examples and all of that but seems impressive that it even works in the first place. Image completion and what do I mean by this? It's about corrupted images, right? So there are a whole bunch of celebrities here you might recognize a few I don't recognize most of them but you cut out their nose and then you train the network on how to in-painting over these images and then it starts to identify that a nose is most probably the structure over there it starts to match the color and the shape with the rest of their faces and again all of these are ways so it starts to generate sort of realistic results and again generative network to the center of it you start noticing a trend most of the results are 2016 or 2017 so that's like the last year is when most of the things are happening and it keeps improving day to day multiple GANs which I think is 2017 now right now a few months ago where stacked GANs and people are able to describe them not two GAN networks so instead of having a generator discriminator by itself you take another pair of generator discriminators and then you put them together and you start training them to identify relationships across domains so what happens here is that if you go out shopping and then you have a shoe which is in a particular style then you want to get a bag which matches that style so they started being able to generate samples very impressive results and then there's a new one so this was called disco GANs another one was called cycle GANs you don't have to remember the names so there's this horse over here and they were able to take a photo or a video of the horse running around and one network was able to convert it into a zebra so when I looked at this I thought okay that looks like a zebra but the tails were weird turns out zebra trails are not striped so yeah and then you can also do it the other way around where zebra could be converted into a horse so these sort of GANs were able to do it in either way so you have stack multiple GANs and then it's just going to be all the way now you keep going with GANs so very impressive results and of course a few more minutes and then I'm going to talk about the issues that were happening what is the state of the art research and if you want to go to NIPS this year already close, the papers have been accepted but most probably they're going to end up talking about things like these so stability and other problems let me just talk about it in detail so finding equilibriums are hard because like I said, this is not a explicit loss function which is just being optimized we need to be able to do sort of a joint system where optimizing not just one network but together with another one so the local equilibrium points and sometimes local minima which you end up being stuck in non-convergence has always been a problem especially something called mode collapse so what do I mean by that so say you have pictures of dogs and then the idea is that you want to start generating fake pictures of dogs you feed it like a labrador or a bug, a golden retriever and then you start teaching it all these types of dogs but what happens is that some people are saying that the network sort of learns to cheat and it starts realizing that I will just start generating bugs and then those are like valid dogs throughout so it ends up that we sort of collapse into like a diversity problem the network starts generating very very similar looking examples and of course there's one thing which I sort of skip because it wasn't very apparent over there which is the differentiability requirements for the loss functions and the whole networks so you remember our D of Z or D of Z and G of Z both of them, either of them, the functions need to be differentiable and go into much of the mathematics but the idea was that this constrains us sort of continuous functions which are being output so working with text has been a problem in this area so most of the functions or most of the outputs you might have noticed a trend are all images results but none too convincing so far they are both close but let's see and how do we improve GANs so stability has been a problem for a long time I'll just leave all of this here so the first few are on hacks on how to improve GANs the Sumit Chintala has like a very popular repository where he literally if you want to train GANs just follow these steps and one of the idea is that in which you start generating the outputs instead of having it as like a noisy uniform distribution you sort of have it like a spherical space and that seems to give slightly better results one-sided label smoothing which may be applicable to other domains as well essentially means that instead of going from 0 or 1 you sort of adjust your label so that your output is like a 0.8 or 0.7 this sort of still conveys the information that you are good but sort of adds noise at the layers finally you also have reference normalizations batch normalizations these are some things which are done by this the losses which are computed and the intermediate layers the normalization is done slightly differently and finally this is sort of like the big problem with GANs which people are still working on it's about stability in all of these systems so when the two networks are learning against each other we're not very sure on how stable the outputs are going to perform people are looking at different ways they are continuing to look almost all of them are 2017 but most of them are still trying on how to ensure that stability is a solved problem one easy or one effective approach seems to be conditioning on how realistic the output looks so instead so how do you judge the quality of a fake image everyone has their own opinion so when you start judging the quality of fake images people started defining it the other distance functions like this vasestine was one of them so you start defining other loss functions and other distances based on that where you make sure that the realism of the image is sort of an important parameter and also auto encoder approaches like BEGAN and BEGAN okay that's actually a word now BEGAN and then these approaches sort of like help define or help set the stage for stability problems to be solved but i'll leave all of these here so that was the guide to GANTS you can visit this link for the slides and the content and all the references hopefully it's useful i just wanted to give a presentation on all the overview maybe hopefully it's useful when you start searching off if you check that guide to GANTS there was me Ramana and thank you very much we'd love to offer you a few minutes for questions and answers if you have a question please raise your hand and right down here i'll give you a mic please stand when you give your question and identify who you are we are doing a live stream hi thanks for the interesting talk i'm Vipul so my question was around you said that differentiability requirement is causing problems with discrete outputs so that applies when i'm trying to go from say text to text so you can't do my homework yet but so what about other forms of continuous outputs so images is one but what about say graphs or time series so have there been areas like i think that have been few approaches especially like at the start where people are trying to generate audio based samples or even for images right you can think of it as so essentially the pixels are going to be numerical values which are being generated so i would think that if you want to solve problems which are time series or value based the same encoding system or again i don't remember of any specific approaches which i work but if you look at an image when you actually type it out it's going to be a series of numbers pixel values so i think that might still work those are not discrete yet but quite sure it might work i can't remember here of any specific examples next question is over there hi so when you showed the equation for this when you look at it for the degenerative equation okay okay okay so i can go back yes so i didn't talk about how the network terminates so what happens is that when you start off initially the discriminator has like this option between 0 and 1 and the whole structure is based on whether the loss is like a finite value when the discriminator becomes confused between 0.5 so it says x is half z is half that's sort of the end stability condition that's ideally when you stop the training so what happens is that at that point you're at the place where the generator is like completely as good as it can get and then that's essentially the stopping condition so if you have the output of the discriminator stuck at half or 0.5 and then it cannot differentiate between the real and fake images that's at the point where you start seeing state of your training yes so the equilibrium condition is exactly that the equilibrium condition is that the discriminator fails to generate any difference between the two images alright next question is right here in the middle so what's very interesting is the discriminator is effectively sorry i couldn't hear it quite clearly can you hear me? as it was very interesting is that so both discriminator generator strengthening through the process discriminator is effectively a classifier are there learnings for the effectively the architecture or the way the discriminator eventually strengthens for other classification problems yes so this was in fact something that was quite interesting was that you have two networks which are being done here and most of the results are focusing on the output of the generator and one thing which might be possible is to take a very good discriminator which has been trained using this process and literally start using it as a classifier for other types of problems that's definitely what motivated me also because i'm more used to classification problems so this discriminator by itself might have significant uses in solving classification problems it might not be trained explicitly on the classification problems that you are trying to solve but again there's definitely some amount of transfer learning to train weights which might be useful i'm not sure but hope i'm quite sure there are but i out of my mind i'm not sure but it's definitely something we should look out for we have a question way in the back exactly i think that exactly what the previous question was also about so i think the utility of the generator is what has been discussed so far i also strongly believe that discriminator needs could also be used and i think most of the time when you want to use the discriminator it's sort of not in the image context but maybe in the classification context and some of those are quite useful we have not seen anyone try to use the discriminator for like image net classes or anything like that but i think for simple binary operations of like deciding whether an image is of a particular class or not i think discriminators are still able to do quite significantly whether they have been used anywhere so far or any classification problems i'm not aware of any okay, yes say it sorry, i can't hear you very clearly maybe let me close so this question is more on the ethical sense like you might have come across the recent fake news generation like obama's speech has been morphed okay, yes so how gans are like helping in tackling this fake news challenge or are there any counter measures to handle such fake news that are getting generated using gans so do you mean for speech based inputs for gans because text based filtering not aware of any good results because of the whole problem with discrete inputs and discrete outputs filtering of voices so again, if this involves using the discriminator component i think, yeah so in the discriminator component if you have a generator which is aiming to model the fake news part of it quite sure that as long as you generate your samples consistently it might be able to encode into representation of what a fake news represents is the actual problem in my opinion so getting the representation right might be an issue alright, we have time for one more question and we have a question down here i have a question i see that the house is being changed to jibra so i can actually put some wrong person in the same video usually in the judiciary system we kind of rely on the videos as well is there any kind of regularity on this kind of entire research or the implementations and the research good question so far, there have been very convincing results i think a week ago someone made a picture of obama speak very realistically things which he never said the legal issues are still a mind field i have no idea on how people are going forward there are few organizations which are looking at it EFF, the electronic frontier foundation OpenAI to an extent all of them are looking at the ramifications of how reinforcement learning systems scan systems, generator network how all of these fit into the broader context of how it might cause issues we're still not sure, some people are convinced that it's going to destroy the world some people are convinced that it's merely a bad project but we still need to have reasoning with the entire society no longer computer scientists who are going to determine these things it's too soft of a skill for me to think about yes this is such an interesting topic and i think we could probably have questions all day long ramanan, would you take questions offline during the break? i'll be here for a while and then be happy to meet you fantastic, well it's time for a break before you guys go out to get your chai or coffee or whatever caffeine you need