14-04-2022
Qual a relação entre Big Data, Inteligência Artificial e Machine Learning?
Na sequência do anterior artigo publicado sobre este tema, os exemplos de áreas de aplicação do Big Data combinam Big Data, Inteligência Artificial (IA) e Machine Learning (ML), pelo que vamos fazer uma breve análise a estes conceitos.
Na sua essência, o que chamamos de Big Data (dados estruturados ou não, em grande volume, gerados rapidamente e com formatos variados) são a base / matéria-prima para o desenvolvimento de sistemas Inteligência Artificial / modelos de Machine Learning.
A IA e o ML estão muito relacionados e ligados entre si. Devido a essa relação, quando analisa IA e ML, está na realidade a olhar para a sua interligação. Por outras palavras, um computador "inteligente" utiliza a IA para pensar como um humano e realizar tarefas sozinho. O ML é a forma como um sistema informático desenvolve a sua inteligência.
Esta relação próxima (forma como funcionam em conjunto) é a razão da confusão entre estes dois conceitos. A IA e o ML funcionam em conjunto da seguinte forma:
Quanto maior a complexidade do nosso problema de ML, maior deve ser a base de dados disponível. Com sistemas de ML modernos, temos a vantagem de poder recolher dados em diferentes formatos, já que os algoritmos aceitam uma maior variedade de opções.
Assim, podemos recolher uma tabela estruturada do Excel ou tweets do Twitter sem problemas. Estes dados são logo preparados, convertidos e transformados para servir como base para a aprendizagem do modelo inteligente. A interoperabilidade dos dados entre sistemas e a adoção de ferramentas de manipulação permitem lidar com dados de todos os tipos (Big Data).
Uma forma de preparar um computador para reproduzir o raciocínio humano é utilizar uma Rede Neural, que é uma série de algoritmos modelados de acordo com o nosso cérebro. Esta rede neural ajuda o sistema informático a alcançar a IA através de aprendizagem profunda (Deep Learning).
Como uma das características do Big Data é a sua natureza constantemente mutável, há também que abordar a questão do MLOps e do pipeline de dados. Neste tipo de projeto, o modelo sofre um processo de reaprendizagem sempre que haja uma atualização nos dados, de modo a manter a precisão das previsões e a consistência dos resultados. Esta operação é feita de forma automática, acompanhando a volatilidade das fontes de entrada.
Artigos relacionados:
👉 Follow @niuGIS
RELACIONADAS