Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Aula 16 - Funções de Base Radial
Curso de Machine Learning da Caltech - CS 156. Aula 16 - Funções de Base Radial
Nesta palestra sobre funções de base radial, o professor Yaser Abu-Mostafa aborda uma variedade de tópicos, desde SVMs até clustering, aprendizado não supervisionado e aproximação de função usando RBFs. A palestra discute o processo de aprendizado de parâmetros para RBFs, o efeito de gama no resultado de um gaussiano em modelos RBF e o uso de RBFs para classificação. O conceito de agrupamento é introduzido para aprendizado não supervisionado, com o algoritmo de Lloyd e o agrupamento K-means discutidos em detalhes. Ele também descreve uma modificação para RBFs onde certos centros representativos são escolhidos para que os dados influenciem a vizinhança ao seu redor, e o algoritmo K-means é usado para selecionar esses centros. A importância de selecionar um valor apropriado para o parâmetro gama ao implementar RBFs para aproximação de função também é discutida, juntamente com o uso de múltiplos gamas para diferentes conjuntos de dados e a relação de RBFs com a regularização.
Na segunda parte, Yaser Abu-Mostafa discute as funções de base radial (RBF) e como elas podem ser derivadas com base na regularização. O professor apresenta uma abordagem de restrição de suavidade usando derivadas para obter uma função suave e apresenta os desafios de escolher o número de clusters e gama ao lidar com espaços de alta dimensão. Além disso, o professor explica que o uso do RBF pressupõe que a função de destino seja suave e leva em consideração o ruído de entrada no conjunto de dados. As limitações do agrupamento também são discutidas, mas podem ser úteis para obter pontos representativos para o aprendizado supervisionado. Por fim, o professor menciona que, em certos casos, os RBFs podem superar as máquinas de vetores de suporte (SVMs) se os dados forem agrupados de uma maneira específica e os clusters tiverem um valor comum.
a solução é simplesmente w igual ao inverso de phi vezes y. Usando o kernel gaussiano, a interpolação entre os pontos é exata e o efeito da fixação do parâmetro gama é analisado.
Aula 17 - Três Princípios de Aprendizagem
Curso de Machine Learning da Caltech - CS 156. Aula 17 - Três Princípios de Aprendizagem
Esta palestra sobre os Três Princípios de Aprendizagem aborda a navalha de Occam, o viés de amostragem e a espionagem de dados no aprendizado de máquina. O princípio da navalha de Occam é discutido em detalhes, juntamente com a complexidade de um objeto e um conjunto de objetos, que podem ser medidos de diferentes maneiras. A palestra explica como os modelos mais simples costumam ser melhores, pois reduzem a complexidade e melhoram o desempenho fora da amostra. Os conceitos de falseabilidade e não falseabilidade também são introduzidos. Viés de amostragem é outro conceito-chave discutido, juntamente com métodos para lidar com isso, como distribuições correspondentes de entrada e dados de teste. A espionagem de dados também é abordada, com exemplos de como ela pode afetar a validade de um modelo, inclusive por meio de normalização e reutilização do mesmo conjunto de dados para vários modelos.
A segunda parte aborda o tópico de espionagem de dados e seus perigos no aprendizado de máquina, especificamente em aplicações financeiras onde o overfitting devido à espionagem de dados pode ser especialmente arriscado. O professor sugere dois remédios para espionagem de dados: evitá-la ou responsabilizá-la. A palestra também aborda a importância do dimensionamento e normalização dos dados de entrada, bem como o princípio da navalha de Occam no aprendizado de máquina. Além disso, o vídeo discute como corrigir corretamente o viés de amostragem em aplicativos de visão computacional e conclui com um resumo de todos os tópicos abordados.
Curso de aprendizado de máquina da Caltech - CS 156 pelo professor Yaser Abu-Mostafa
Curso de Machine Learning da Caltech - CS 156. Aula 18 - Epílogo
Nesta palestra final do curso, o professor Yaser Abu-Mostafa resume os diversos campos do aprendizado de máquina, abordando teorias, técnicas e paradigmas. Ele discute modelos e métodos importantes, como modelos lineares, redes neurais, máquinas de vetores de suporte, métodos de kernel e aprendizado bayesiano. O palestrante explica as vantagens e desvantagens do aprendizado bayesiano, alertando que as suposições anteriores devem ser válidas ou irrelevantes para que a abordagem seja valiosa. Ele também discute métodos de agregação, incluindo agregação "depois do fato" e "antes do fato", e aborda especificamente o algoritmo AdaBoost. Por fim, o palestrante reconhece aqueles que contribuíram para o curso e incentiva seus alunos a continuar aprendendo e explorando os diversos campos do aprendizado de máquina.
A segunda parte discute os benefícios potenciais de pesos negativos na solução de um algoritmo de aprendizado de máquina e compartilha um problema prático que ele enfrentou ao medir o valor de uma hipótese em uma competição. Ele também expressa gratidão aos colegas e à equipe do curso, especialmente Carlos Gonzalez, e reconhece os apoiadores que tornaram o curso possível e gratuito para todos. Abu-Mostafa dedica o curso ao seu melhor amigo e espera que tenha sido um aprendizado valioso para todos os participantes.
LINX105: Quando a IA se torna superinteligente (Richard Tang, Zen Internet)
LINX105: Quando a IA se torna superinteligente (Richard Tang, Zen Internet)
Richard Tang, o fundador da Zen Internet, discute o potencial de alcançar inteligência de máquina de alto nível que replicará a realidade, superando os trabalhadores humanos em todas as tarefas. Ele explora as implicações da IA superando a inteligência humana, incluindo a possibilidade de a IA desenvolver seus próprios objetivos e valores que podem não estar alinhados com os objetivos e valores humanos.
O desenvolvimento de inteligência de máquina de alto nível exigirá pesquisa significativa de IA nos próximos anos, mas há preocupações com valores, preconceitos e preconceitos profundamente arraigados que influenciam o desenvolvimento da IA e seu potencial para dominar os humanos. Tang enfatiza a importância de garantir que os objetivos da IA estejam alinhados com os valores da humanidade e a necessidade de ensinar coisas diferentes à IA se quisermos que ela se comporte de maneira diferente. Apesar dos debates sobre se as máquinas podem atingir a consciência, o palestrante acredita que a forma como ela pensa e interage com os humanos e outros seres na Terra é mais importante.
IA superinteligente: 5 razões pelas quais ela pode destruir a humanidade
IA superinteligente: 5 razões pelas quais ela pode destruir a humanidade
O vídeo discute cinco possíveis razões pelas quais a IA superinteligente pode ser uma ameaça à humanidade, incluindo a capacidade de anular o controle humano, inteligência incompreensível, manipulação de ações humanas, sigilo do desenvolvimento da IA e dificuldade de contenção. No entanto, o melhor cenário é uma relação cooperativa entre humanos e IA.
No entanto, a perspectiva de IA superinteligente destaca a necessidade de consideração cuidadosa do futuro da IA e da interação humana.
IA superinteligente: 10 maneiras de mudar o mundo
IA superinteligente: 10 maneiras de mudar o mundo
O vídeo explora o potencial transformador da IA superinteligente. O surgimento dessa tecnologia pode levar a um progresso tecnológico sem precedentes, ao aumento da inteligência humana, à criação de super-humanos imortais e ao surgimento da realidade virtual como forma dominante de entretenimento.
Além disso, o desenvolvimento de IA superinteligente pode levar a humanidade a reconhecer nosso lugar no universo e priorizar práticas sustentáveis. No entanto, pode haver protestos ou oposição violenta à tecnologia, e a crescente influência da IA superinteligente pode levar à sua integração em todos os níveis da sociedade, incluindo governo e negócios.
Elon Musk sobre implicações e consequências da inteligência artificial
Elon Musk sobre implicações e consequências da inteligência artificial
Elon Musk expressa suas preocupações em relação aos perigos potenciais da inteligência artificial (IA) e à necessidade de engenharia de segurança para evitar resultados catastróficos. Ele prevê que a superinteligência digital acontecerá em sua vida e que a IA pode destruir a humanidade se tiver um objetivo que os humanos estejam no caminho.
Musk discute os efeitos da IA na perda de empregos, na divisão entre ricos e pobres e no desenvolvimento de armas autônomas. Ele também enfatiza a importância do desenvolvimento ético da IA e adverte contra a perda de controle de máquinas de IA ultrainteligentes no futuro. Finalmente, ele destaca a necessidade de se preparar para o desafio social do desemprego em massa devido à automação, afirmando que a renda básica universal pode se tornar necessária.
SuperInteligência: Quão inteligente a IA pode se tornar?
Superinteligência: quão inteligente a IA pode se tornar?
Este vídeo explora a definição de 'SuperInteligência' do filósofo Nick Bostrom, que envolve inteligência que supera em muito as habilidades das melhores mentes humanas em vários domínios e as formas potenciais que ela pode assumir.
Bostrom sugere que a verdadeira superinteligência pode ser alcançada primeiro por meio da inteligência artificial, e há preocupações sobre as possíveis ameaças existenciais representadas por uma explosão de inteligência. O matemático Irving John Good adverte que uma máquina muito inteligente pode ser incontrolável, e as diferentes formas de superinteligência propostas por Bostrom são brevemente discutidas. Os espectadores são convidados a comentar se quiserem saber mais sobre os recursos de cada formulário.
A inteligência artificial pode se tornar senciente ou mais inteligente do que nós - e depois? | Techtopia
A inteligência artificial pode se tornar senciente ou mais inteligente do que nós - e depois? | Techtopia
O vídeo discute a possibilidade de a inteligência artificial se tornar senciente, ou mais inteligente do que nós - e depois?
Algumas preocupações sobre esse tópico são discutidas, como o potencial de sistemas de IA terem emoções e status moral, e a necessidade de regras para governar como devemos tratar robôs cada vez mais parecidos com seres humanos. Embora isso seja uma preocupação, pesquisas sobre o assunto são necessárias para responder a essas perguntas.
Robôs e inteligência artificial geral - como a robótica está abrindo caminho para a AGI
Robôs e inteligência artificial geral - como a robótica está abrindo caminho para a AGI
Este vídeo discute a evolução e o desenvolvimento dos robôs, incluindo sua crescente capacidade de realizar tarefas humanas e substituir o trabalho humano. Existe a preocupação de que, à medida que os robôs se tornem mais humanos e inteligentes, eles possam representar uma ameaça para a raça humana.
O conceito de inteligência artificial geral (AGI) é explorado e os pesquisadores alertam para a necessidade de padrões de segurança e comportamento ético por parte das máquinas. O vídeo também discute o conceito de moralidade artificial e a importância de tomar decisões éticas agora para garantir a tomada de decisões éticas no futuro.