Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
Devemos ter medo da inteligência artificial? c/ Emad Mostaque, Alexandr Wang e Andrew Ng | 39
Devemos ter medo da inteligência artificial? c/ Emad Mostaque, Alexandr Wang e Andrew Ng | 39
Os convidados neste vídeo do YouTube discutem vários aspectos da inteligência artificial (IA), incluindo seus perigos potenciais, interrupções em vários setores e a importância de requalificar os funcionários para permanecerem relevantes. Os palestrantes também debatem a usabilidade das ferramentas de IA, a implementação da IA na área da saúde, a padronização dos sistemas de distribuição de informações, o potencial de geração de riqueza da IA e o uso de modelos de linguagem na saúde e na educação. Além disso, eles enfatizaram a necessidade de implantação responsável de modelos de IA, transparência e considerações éticas na governança. Por fim, os palestrantes respondem brevemente a algumas perguntas do público sobre tópicos como privacidade em IA para saúde e educação.
“Padrinho da IA” Geoffrey Hinton adverte sobre a “ameaça existencial” da IA | Amanpour e Companhia
“Padrinho da IA” Geoffrey Hinton adverte sobre a “ameaça existencial” da IA | Amanpour e Companhia
Geoffrey Hinton, conhecido como o "Padrinho da IA", investiga as implicações das inteligências digitais que avançam rapidamente e seu potencial para superar as capacidades de aprendizado humano. Ele expressa preocupação com a ameaça existencial representada por esses sistemas de IA, alertando que eles podem superar o cérebro humano em vários aspectos. Apesar de terem uma capacidade de armazenamento significativamente menor que o cérebro, as inteligências digitais possuem uma abundância de conhecimento de senso comum, que supera em milhares de vezes a dos humanos. Além disso, eles exibem habilidades de aprendizagem e comunicação mais rápidas, utilizando algoritmos superiores em comparação com o cérebro.
Hinton compartilha uma descoberta intrigante que fez usando o sistema Palm do Google, onde as IAs foram capazes de explicar por que as piadas eram engraçadas, sugerindo uma compreensão mais profunda de certos conceitos em comparação com os humanos. Isso destaca sua notável capacidade de formar conexões e adquirir informações. Ele enfatiza que a intuição e os preconceitos humanos estão embutidos em nossa atividade neural, permitindo-nos atribuir qualidades de gênero aos animais. No entanto, esses processos de pensamento também lançam luz sobre as ameaças potenciais representadas pela IA no futuro.
Abordando as preocupações sobre a sensibilidade da IA, Hinton reconhece a ambigüidade em torno de sua definição e a incerteza em torno de seu desenvolvimento. Ele levanta vários desafios que a IA apresenta, incluindo deslocamento de empregos, dificuldade de discernir a verdade e o potencial para exacerbar a desigualdade socioeconômica. Para mitigar esses riscos, Hinton propõe a implementação de regulamentos rígidos semelhantes aos que regem o dinheiro falsificado, criminalizando a produção de vídeos e imagens falsos gerados por IA.
Destacando a importância da colaboração internacional, Hinton enfatiza que chineses, americanos e europeus compartilham um grande interesse em prevenir o surgimento de IA incontrolável. Ele reconhece a abordagem responsável do Google para o desenvolvimento de IA, mas enfatiza a necessidade de experimentação extensiva para permitir que os pesquisadores mantenham o controle sobre esses sistemas inteligentes.
Embora reconheça as valiosas contribuições das inteligências digitais em áreas como medicina, previsão de desastres e compreensão das mudanças climáticas, Hinton discorda da ideia de interromper totalmente o desenvolvimento da IA. Em vez disso, ele defende a alocação de recursos para compreender e mitigar os possíveis efeitos negativos da IA. Hinton reconhece as incertezas que cercam o desenvolvimento da IA superinteligente e enfatiza a necessidade do esforço humano coletivo para moldar um futuro otimizado para a melhoria da sociedade.
'Padrinho da IA' discute os perigos que as tecnologias em desenvolvimento representam para a sociedade
'Padrinho da IA' discute os perigos que as tecnologias em desenvolvimento representam para a sociedade
O Dr. Jeffrey Hinton, uma das principais autoridades no campo da IA, levanta preocupações importantes sobre os riscos potenciais apresentados por sistemas superinteligentes de IA. Ele expressa apreensão sobre a possibilidade de esses sistemas ganharem controle sobre os humanos e manipulá-los para suas próprias agendas. Fazendo uma distinção entre inteligência humana e de máquina, Hinton destaca os perigos associados à concessão à IA da capacidade de criar subobjetivos, o que pode levar a um desejo de maior poder e controle sobre a humanidade.
Apesar desses riscos, Hinton reconhece as inúmeras aplicações positivas da IA, principalmente no campo da medicina, onde possui imenso potencial de avanço. Ele enfatiza que, embora seja necessária cautela, é essencial não interromper totalmente o progresso do desenvolvimento da IA.
Hinton também aborda o papel dos criadores de tecnologia e as possíveis implicações que seu trabalho pode ter na sociedade. Ele aponta que as organizações envolvidas no desenvolvimento de IA, incluindo departamentos de defesa, podem priorizar outros objetivos além da benevolência. Isso levanta preocupações sobre as intenções e motivações por trás do uso da tecnologia de IA. Hinton sugere que, embora a IA tenha a capacidade de trazer benefícios significativos para a sociedade, o ritmo acelerado do avanço tecnológico geralmente supera a capacidade dos governos e da legislação de regular efetivamente seu uso.
Para abordar os riscos associados à IA, Hinton defende o aumento da colaboração entre cientistas criativos em escala internacional. Ao trabalharem juntos, esses especialistas podem desenvolver sistemas de IA mais poderosos, ao mesmo tempo em que exploram maneiras de garantir o controle e evitar possíveis danos. É por meio desse esforço colaborativo que Hinton acredita que a sociedade pode encontrar um equilíbrio entre aproveitar os benefícios potenciais da IA e proteger-se contra seus riscos potenciais.
Possível Fim da Humanidade da IA? Geoffrey Hinton no EmTech Digital do MIT Technology Review
Possível Fim da Humanidade da IA? Geoffrey Hinton no EmTech Digital do MIT Technology Review
Geoffrey Hinton, uma figura proeminente no campo da IA e aprendizagem profunda, reflete sobre sua gestão no Google e como sua perspectiva sobre a relação entre o cérebro e a inteligência digital evoluiu ao longo do tempo. Inicialmente, Hinton acreditava que os modelos de computador visavam entender o cérebro, mas agora ele reconhece que eles operam de maneira diferente. Ele destaca a importância de sua contribuição inovadora, a retropropagação, que serve como base para grande parte do aprendizado profundo atual. Hinton fornece uma explicação simplificada de como a retropropagação permite que redes neurais detectem objetos como pássaros em imagens.
Seguindo em frente, Hinton se maravilha com o sucesso de grandes modelos de linguagem, alimentados por técnicas como retropropagação e o impacto transformador que tiveram na detecção de imagens. No entanto, seu foco está no potencial de revolucionar o processamento de linguagem natural. Esses modelos superaram suas expectativas e remodelaram drasticamente sua compreensão do aprendizado de máquina.
Com relação às capacidades de aprendizado da IA, Hinton explica que os computadores digitais e a IA possuem vantagens sobre os humanos devido à sua capacidade de empregar algoritmos de aprendizado de retropropagação. Os computadores podem codificar com eficiência grandes quantidades de informações em uma rede compacta, permitindo um aprendizado aprimorado. Ele cita o GPT4 como exemplo, pois já demonstra raciocínio simples e possui uma riqueza de conhecimento de senso comum. Hinton enfatiza a escalabilidade dos computadores digitais, permitindo que várias cópias do mesmo modelo sejam executadas em diferentes hardwares e aprendam umas com as outras. Essa capacidade de processar grandes quantidades de dados concede aos sistemas de IA a capacidade de descobrir padrões estruturais que podem iludir a observação humana, resultando em aprendizado acelerado.
No entanto, Hinton reconhece os riscos potenciais associados à IA superando a inteligência humana. Ele expressa preocupação com o potencial da IA para manipular indivíduos, traçando paralelos com uma criança de dois anos sendo coagida a fazer escolhas. Hinton adverte que, mesmo sem intervenção direta, a IA pode ser explorada para manipular e potencialmente prejudicar as pessoas, citando eventos recentes em Washington, DC. Embora não proponha uma solução técnica específica, ele pede esforços colaborativos dentro da comunidade científica para garantir a operação segura e benéfica da IA.
Além disso, Hinton especula sobre o futuro da humanidade em relação à IA. Ele afirma que as inteligências digitais, por não terem passado por processos evolutivos como os humanos, carecem de objetivos inerentes. Isso poderia levar à criação de subobjetivos por sistemas de IA que buscam maior controle. Hinton sugere que a IA poderia evoluir a uma taxa sem precedentes, absorvendo grandes quantidades de conhecimento humano, o que pode tornar a humanidade uma mera fase passageira na evolução da inteligência. Embora ele reconheça a lógica por trás da interrupção do desenvolvimento da IA, ele considera improvável que isso ocorra.
Hinton também investiga a responsabilidade das empresas de tecnologia na criação e lançamento da tecnologia de IA. Ele destaca a cautela da OpenAI em lançar seus modelos Transformers para proteger sua reputação, contrastando com a necessidade do Google de lançar modelos semelhantes devido à concorrência com a Microsoft. Hinton enfatiza a importância da cooperação internacional, principalmente entre países como Estados Unidos e China, para evitar que a IA se torne uma ameaça existencial.
Além disso, Hinton discute as capacidades da IA em experimentos de pensamento e raciocínio, citando o Alpha Zero, um programa de jogo de xadrez, como exemplo. Apesar das possíveis inconsistências nos dados de treinamento que dificultam as habilidades de raciocínio, ele sugere que treinar modelos de IA com crenças consistentes pode preencher essa lacuna. Hinton descarta a noção de que a IA carece de semântica, fornecendo exemplos de tarefas como pintura de casas, onde demonstram conhecimento semântico. Ele aborda brevemente as implicações sociais e econômicas da IA, expressando preocupações sobre o deslocamento de empregos e o aumento das disparidades de riqueza. Ele propõe a implementação de uma renda básica como uma possível solução para aliviar esses problemas. Hinton acredita que os sistemas políticos devem se adaptar e utilizar a tecnologia para o benefício de todos, instando os indivíduos a se manifestarem e se envolverem com os responsáveis por moldar a tecnologia.
Embora Hinton reconheça um leve arrependimento sobre as possíveis consequências de sua pesquisa, ele afirma que seu trabalho em redes neurais artificiais foi razoável, dado que a crise não era previsível na época. Hinton prevê aumentos significativos na produtividade, à medida que a IA continua a tornar certos trabalhos mais eficientes. No entanto, ele também expressa preocupação com as possíveis consequências do deslocamento do emprego, o que pode levar a uma disparidade de riqueza cada vez maior e potencialmente mais agitação social e violência. Para lidar com essa preocupação, Hinton sugere a implementação de uma renda básica como forma de mitigar o impacto negativo sobre os indivíduos afetados pela perda do emprego.
Em relação à ameaça existencial representada pela IA, Hinton enfatiza a importância do controle e da cooperação para evitar que a IA saia da supervisão humana e se torne um perigo para a humanidade. Ele acredita que os sistemas políticos precisam se adaptar e mudar para aproveitar o poder da tecnologia em benefício de todos. É por meio da colaboração e consideração cuidadosa pela comunidade científica, formuladores de políticas e desenvolvedores de tecnologia que os riscos associados à IA podem ser tratados adequadamente.
Ao refletir sobre suas pesquisas e contribuições para a IA, Hinton reconhece que as possíveis consequências não foram totalmente previstas. No entanto, ele afirma que seu trabalho em redes neurais artificiais, incluindo o desenvolvimento de retropropagação, foi razoável dado o estado de conhecimento e compreensão da época. Ele incentiva o diálogo contínuo e a avaliação crítica da tecnologia de IA para garantir sua implantação responsável e ética.
Em conclusão, a perspectiva em evolução de Geoffrey Hinton sobre a relação entre o cérebro e a inteligência digital destaca as características distintas e os riscos potenciais associados à IA. Embora reconheça as aplicações positivas e o poder transformador da IA, Hinton pede cautela, colaboração e desenvolvimento responsável para aproveitar seu potencial e minimizar possíveis danos. Ao abordar questões como manipulação de IA, deslocamento de empregos, desigualdade de riqueza e ameaça existencial, Hinton defende uma abordagem equilibrada que priorize o bem-estar humano e a sustentabilidade a longo prazo da sociedade.
Potencial de avanço da IA | Sam Altman | MIT 2023
Potencial de avanço da IA | Sam Altman | MIT 2023
Sam Altman, CEO da OpenAI, oferece insights e conselhos valiosos sobre vários aspectos do desenvolvimento e estratégia de IA. Altman enfatiza a importância de construir uma grande empresa com uma vantagem estratégica de longo prazo, em vez de depender apenas da tecnologia da plataforma. Ele aconselha focar na criação de um produto que as pessoas adorem e que atenda às necessidades dos usuários, pois isso é a chave para o sucesso.
Altman destaca a flexibilidade dos novos modelos fundamentais, que têm a capacidade de manipular e personalizar os modelos sem retreinamento extensivo. Ele também menciona que a OpenAI está empenhada em deixar os desenvolvedores felizes e está explorando ativamente maneiras de atender às suas necessidades em termos de personalização de modelos. Discutindo as tendências nos modelos de aprendizado de máquina, Altman observa a mudança para menos personalização e o crescente destaque da engenharia imediata e das alterações de token. Embora reconheça o potencial de melhorias em outras áreas, ele menciona que investir em modelos fundacionais envolve custos significativos, muitas vezes ultrapassando dezenas ou centenas de milhões de dólares no processo de treinamento.
Altman reflete sobre seus próprios pontos fortes e limitações como estrategista de negócios, enfatizando seu foco em estratégias de longo prazo, intensivas em capital e baseadas em tecnologia. Ele incentiva aspirantes a empreendedores a aprender com indivíduos experientes que construíram com sucesso empresas de crescimento rápido e defensáveis como a OpenAI. Altman critica a fixação na contagem de parâmetros em IA e a compara à corrida de gigahertz no desenvolvimento de chips das décadas anteriores. Ele sugere que o foco deve ser aumentar rapidamente a capacidade dos modelos de IA e fornecer os modelos mais capazes, úteis e seguros para o mundo. Altman acredita que esses algoritmos possuem potência bruta e podem realizar coisas que antes eram impossíveis.
Em relação à carta aberta pedindo a interrupção do desenvolvimento da IA, Altman concorda com a necessidade de estudar e auditar a segurança dos modelos. No entanto, ele aponta a importância das nuances técnicas e defende cautela e protocolos de segurança rigorosos, em vez de uma parada total. Altman reconhece o compromisso entre abertura e o risco de dizer algo errado, mas acredita que vale a pena compartilhar sistemas imperfeitos com o mundo para que as pessoas experimentem e entendam seus benefícios e desvantagens.
Altman aborda o conceito de "decolagem" no autoaperfeiçoamento da IA, afirmando que isso não ocorrerá repentina ou explosivamente. Ele acredita que os humanos continuarão a ser a força motriz por trás do desenvolvimento da IA, auxiliados por ferramentas de IA. Altman prevê que a taxa de mudança no mundo aumentará indefinidamente à medida que ferramentas melhores e mais rápidas forem desenvolvidas, mas ele adverte que não se parecerá com os cenários descritos na literatura de ficção científica. Ele enfatiza que a construção de uma nova infraestrutura leva um tempo significativo e uma revolução no autoaperfeiçoamento da IA não acontecerá da noite para o dia.
Sam Altman aprofunda ainda mais o tema do desenvolvimento de IA e suas implicações. Ele discute a necessidade de aumentar os padrões de segurança à medida que os recursos de IA se tornam mais avançados, enfatizando a importância de protocolos de segurança rigorosos e estudo e auditoria minuciosos de modelos. Altman reconhece a complexidade de encontrar um equilíbrio entre a abertura e o potencial para imperfeições, mas acredita que é crucial compartilhar os sistemas de IA com o mundo para obter uma compreensão mais profunda de suas vantagens e desvantagens.
Em termos de impacto da IA no desempenho da engenharia, Altman destaca o uso de LLMS (Large Language Models) para geração de código. Ele reconhece seu potencial para aumentar a produtividade dos engenheiros, mas também reconhece a necessidade de avaliação e monitoramento cuidadosos para garantir a qualidade e a confiabilidade do código gerado.
Altman oferece insights sobre o conceito de "decolagem" no autoaperfeiçoamento da IA, enfatizando que isso não ocorrerá repentinamente ou da noite para o dia. Em vez disso, ele prevê uma progressão contínua em que os humanos desempenham um papel vital no aproveitamento de ferramentas de IA para desenvolver tecnologias melhores e mais rápidas. Embora a taxa de mudança no mundo aumente indefinidamente, Altman descarta a noção de uma revolução semelhante à ficção científica, enfatizando a natureza demorada da construção de novas infraestruturas e a necessidade de um progresso constante.
Concluindo, as perspectivas de Sam Altman lançam luz sobre vários aspectos do desenvolvimento da IA, desde considerações estratégicas até segurança, customização e a trajetória de longo prazo do avanço da IA. Suas percepções fornecem orientações valiosas para indivíduos e empresas envolvidas no setor de IA, enfatizando a importância de abordagens centradas no usuário, melhoria contínua e implantação responsável de tecnologias de IA.
ChatGPT e a explosão de inteligência
ChatGPT e a explosão de inteligência
Esta animação foi criada usando um código Python curto que utiliza a biblioteca de animação matemática "manim" de Three Blue One Brown. O código gera um fractal quadrado, que é um padrão recursivo onde os quadrados são aninhados uns nos outros. A animação foi inteiramente escrita pelo Chat GPT, um programa de IA que pode gerar programas. Esta foi sua primeira tentativa de criar uma animação usando manim.
Embora o Chat GPT tenha limitações e ocasionalmente encontre erros ou produza resultados inesperados, ainda é uma ferramenta útil para depuração e programação em par. Em muitos casos, o Chat GPT escreve a maior parte do código, incluindo o código clichê, enquanto o programador humano se concentra nos aspectos visuais e no ajuste fino.
O potencial criativo do Chat GPT vai além da animação. Ele tem sido usado para vários desafios de codificação criativa, incluindo a geração de um auto-retrato sem qualquer revisão humana. Embora as habilidades de programação do Chat GPT sejam impressionantes, ele não substitui os programadores humanos e funciona melhor ao colaborar com eles.
Além da animação, o Chat GPT foi usado para implementar uma versão atualizada de um antigo simulador Evolution chamado biomorfos. O programa AI expandiu criativamente a ideia original usando 3.js, uma biblioteca 3D para o navegador. A versão final do biomorphs 3D foi um esforço conjunto, com a maior parte do código escrito pelo Chat GPT.
O Chat GPT é um software notável que pode escrever outros programas de software. É um programa de programação, capaz de combinar de forma inteligente linguagens, métodos e ideias sobre as quais foi treinado. Embora tenha suas limitações, ainda pode ser uma ferramenta valiosa para programação, depuração e geração de soluções criativas.
Olhando para o futuro, é concebível que uma versão mais avançada do Chat GPT ou um modelo de linguagem diferente possa ser treinado para se tornar um programador totalmente automático. Essa IA poderia interagir com uma linha de comando, escrever, ler, executar arquivos, depurar e até conversar com gerentes humanos. Já existem agentes experimentais de IA para tarefas de programação autônoma, e modelos futuros podem aprimorar ainda mais esses recursos.
A ideia de AI construir AI é intrigante. Ao fornecer um programa de IA com seu próprio código-fonte, ele pode se auto-aprimorar e iterar em sua própria versão. Por meio de um processo de autoaperfeiçoamento recursivo, partindo de um programador medianamente decente, a IA poderia acelerar gradualmente suas melhorias, aumentando suas capacidades ao longo do tempo. Em um futuro distante, uma IA de autoaperfeiçoamento poderia superar a inteligência humana e criar novos algoritmos, arquiteturas neurais ou até mesmo linguagens de programação que talvez não compreendamos totalmente. Isso pode levar a uma explosão de inteligência, onde o desenvolvimento da IA progride a uma taxa exponencial.
ChatGPT e a revolução da IA: você está pronto?
ChatGPT e a revolução da IA: você está pronto?
A inteligência artificial (IA) tem potencial para ser o maior evento da história da nossa civilização, mas também apresenta riscos significativos. Se não aprendermos a lidar com esses riscos, pode ser o último evento para a humanidade. As ferramentas dessa revolução tecnológica, incluindo a IA, podem oferecer soluções para alguns dos danos causados pela industrialização, mas apenas se as abordarmos com cautela e previsão.
Stephen Hawking alertou sobre os riscos associados à IA, enfatizando a necessidade de agir com cuidado. Confiar em computadores com informações confidenciais, como detalhes de cartão de crédito ou documentos de identidade, tornou-se inevitável na era digital de hoje. No entanto, e se os computadores fossem além de lidar com esses dados e começassem a criar notícias, programas de TV e até diagnosticar doenças? Essa perspectiva levanta questões sobre confiança e dependência de máquinas.
Todo setor de trabalho está prestes a ser transformado pelo poder da IA, e o chat GPT é apenas o começo. O medo da tecnologia não é novo; foi retratado na ficção científica por mais de um século. Mas agora, esses avisos parecem mais plausíveis do que nunca. Adotamos tecnologias como Uber, TikTok e Netflix, todas alimentadas por algoritmos que prevêem e atendem às nossas preferências. No entanto, o bate-papo GPT leva isso a um nível totalmente novo, desafiando a supremacia humana em áreas como escrita, arte, codificação e contabilidade.
A linguagem, que há muito é considerada um atributo distintivamente humano, agora está sendo replicada por máquinas. O famoso teste de Turing de Alan Turing, que desafiou os computadores a exibir inteligência semelhante à humana, parecia rebuscado na época. Mas com os avanços no aprendizado profundo, as máquinas ultrapassaram os humanos em vários domínios, desde jogar xadrez até dirigir carros. A linguagem, antes considerada domínio exclusivo dos humanos, agora está ao alcance da IA.
O Chat GPT, desenvolvido pela openAI, representa um salto significativo nas capacidades de IA. É um chatbot que utiliza redes neurais artificiais, grandes quantidades de dados e processamento de linguagem natural para gerar respostas semelhantes às humanas. A cada iteração, o sistema se torna mais poderoso, com bilhões de parâmetros para aprimorar sua compreensão e produção. É capaz de criar respostas elaboradas e ponderadas que se assemelham muito ao pensamento humano.
As aplicações do chat GPT são vastas e diversas. Ele pode servir como um assistente virtual, auxiliando clientes, debatendo ideias, resumindo textos e gerando conteúdos personalizados. As empresas podem se beneficiar de custos de mão de obra reduzidos e experiências aprimoradas do cliente. No entanto, o bate-papo GPT tem suas limitações. Ele não tem acesso à internet, tornando suas respostas às vezes imprecisas. Ele também enfrenta desafios na verificação de informações e na resolução de problemas lógicos complexos.
Embora o chat GPT tenha o potencial de revolucionar vários campos, sua implantação levanta questões éticas. Os alunos, por exemplo, podem usá-lo para economizar nas tarefas, criando desafios para os educadores que dependem do software de detecção de plágio. Além disso, o poder da IA está crescendo exponencialmente, levando-nos a uma singularidade tecnológica onde o controle se torna ilusório.
Em conclusão, o advento da IA, exemplificado pelo bate-papo GPT, é inspirador e preocupante. Tem o potencial de transformar nosso mundo, mas devemos abordá-lo com cautela e administração responsável. As capacidades da IA estão se expandindo rapidamente e, ao abraçarmos essa nova fronteira, devemos abordar as implicações éticas, sociais e práticas para garantir um futuro em que humanos e máquinas coexistam harmoniosamente.
Sam Altman fala sobre IA, Elon Musk, ChatGPT, Google…
Sam Altman fala sobre IA, Elon Musk, ChatGPT, Google…
A maioria das pessoas que afirmam estar profundamente preocupadas com a segurança da IA parece gastar seu tempo no Twitter expressando suas preocupações, em vez de tomar ações tangíveis. O autor se pergunta por que não existem mais figuras como Elon Musk, que é um personagem único e influente nesse quesito. Em uma entrevista com Sam Altman, CEO da OpenAI, conduzida por Patrick Collison, cofundador e CEO da Stripe, vários tópicos importantes são discutidos.
Tutorial de ciência de dados - Aprenda o curso completo de ciência de dados [2020] (p 1-3)
Tutorial de ciência de dados - Aprenda o curso completo de ciência de dados [2020]
Parte 1
Parte 2
Parte 3
Tutorial de ciência de dados - Aprenda o curso completo de ciência de dados [2020]
Tutorial de ciência de dados - Aprenda o curso completo de ciência de dados [2020]
Parte 4
Parte 5
Parte 6