Pular para o conteúdo

A matemática por trás de Deep Learning # 18 (Ft Redes Neurais)

Referências:

Vai continuar o último sobre regionais e estava explicando de uma camada de duas camadas de barra das camadas lembrando que a camada de hidrata por camadas layers né em qual camadas e a gente vai ver se continuar me manda estação do livro que a gente tá citando referências que eu tô falando que tá nas referências conectada né melhorou da entrada a gente pode

Reduzir todas as camadas escondidas nossa rede para gt 520 como h&l as camadas e isso é algo camadas detectados e em camadas com todas as camadas detectadas e você pode denotar isso como simples ou tipo tio depois eu te pedi como h ele mais um se fosse uma camada só ele o número de camisa que você tem se ver uma coisa de sempre nosso valor aqui ele mais um transposto

Etezinho transposto limite hs30 conectadas né estou no outro vídeo você voltasse a ver o quê hr defeito da gente normal de uma forma mas é a mesma coisa que te pedindo vídeo não muda nada só que a gente fazer uma anotação diferente que largar vai ser igual a toda aquela sua anterior eu falo que você também às vezes interpretadas por que significa isso tem essa

Rede neural lá x acho que você tirar tudo aqui meu amarelo caiu fazer isso de mim coisa eu pego ela aqui só para não ter só uma coisa então antes de mostrar a parte prática vou colocar o input que vai ser transporta aqui você já vai ter se transformado que não se importe com as camadas mas a zero que se eu tivesse transformado completamente né onde aquele biquini

Conscientes vai ser igual abrir camadas de neurônios interconectados pontinhos tá significa que é n o que é importação e daqui a gente cada elemento de cada vetor na matriz das matrizes que estão sendo usadas no indecentes tão tudo aqui é como a regional pode ser construída que vai ser regional se tem aqui em input tem que as camadas escondidas que seria o hk vai

Ficar se as camadas escondidas interpretadas eu vou colocar três três camadas três aqui são as camadas l mais um no caso vão ser três eu quero tipo ti então o hk seria isso mas acima de tudo isso seria aquele a galera que a gente viu no caso das camadas escondidas isso daqui seria isso que a gente perguntar se anterior mas pode ficar são igualzinha eu tava realmente

Eu tô resolvendo aqui e eu tipo de seria o que também teve outra mente mas você tem que ver para ver muito porque senão você tem mais conhecimento facial reconheci fotos de gatos e cachorros e se tem sua input aqui então eu sou input vai ser os por xg mas x gatos x cachorros 5 no imagens cada um você coloca na sua rede para vender seu objetivo de aprendizado e tal mas

Como se representa a rede que estou conectado para aprender isso é assim qualquer coisa passa no interior e com o tipo de minas gerais então você vai ter várias transformações acontecendo nesse tempo então esse sistema aí vai ter a função de ativação que vai transformar esse continuamente aquela coisa que a gente viu antes vai transformar esse input continue

Essa conjunto de vetores que vai botar a função tiver não poderia ser aquelas que a gente viu no outro vídeo vai transformar esse input para depois ir no outro posto daqui tá totalmente é reduzida sabe eu não tava sem contar o resto tem que lembrar que buscar a gente definiu é um jeito de definir tem outras notações também uma rede neural conectada não só uma

Camada nas múltiplas camadas em camadas nesse caso é mais uma são as camadas escondidas que a basicamente que vai se mudar de valores numéricos das medidas dos neurônios artificiais para vender praticamente camada escondidas funtyl certo

É isso é se resume toda a espécie de tecido tem o próximo

Transcrito do video
A matemática por trás de Deep Learning # 18 (Ft. Redes Neurais) By Aranea Science