A visão computacional é a capacidade de uma unidade funcional para adquirir, processar e interpretar dados que representem imagens ou vídeos e está intimamente relacionada ao reconhecimento de imagens, por exemplo, o processamento de imagens digitais. Os dados visuais normalmente se originam de um sensor de imagem digital, uma imagem analógica digitalizada ou algum outro dispositivo de entrada gráfica. Para os efeitos normativos, as imagens digitais incluem variantes fixas e móveis.
As imagens digitais existem como uma matriz de números que representam escalas de cinza ou cores na imagem capturada ou, em outros casos, uma coleção de vetores. As imagens digitais podem incluir metadados que descrevem as características e atributos associados à imagem. As imagens digitais podem ser compactadas para economizar espaço de armazenamento e melhorar seu desempenho de transmissão em redes digitais.
Alguns exemplos de aplicações de IA baseadas em visão computacional e reconhecimento de imagem: a identificação de imagens específicas em um conjunto de imagens (por exemplo, imagens de cães em um conjunto de imagens de animais); nos veículos autônomos: detecção e identificação de sinalização de trânsito e objetos em veículos automatizados; no diagnóstico médico: detecção de doenças e anomalias em imagens médicas; no controle de qualidade (por exemplo, localizar peças defeituosas em uma linha de montagem); e no reconhecimento facial.
As tarefas fundamentais para a visão computacional incluem a aquisição de imagens, reamostragem, escala, redução de ruído, aprimoramento de contraste, extração de características, segmentação, detecção e classificação de objetos. Vários métodos estão disponíveis para realizar tarefas de visão computacional em sistemas de IA. O uso de rede neural convolucional profunda ganhou popularidade nos últimos anos devido à sua alta precisão em tarefas de classificação de imagens e seu desempenho em treinamento e predição.
O processamento de linguagem natural processa as informações com base na compreensão da linguagem natural e na geração de linguagem natural. Engloba análise e geração de linguagem natural, com texto ou fala. Usando recursos de processamento de linguagem natural (natural language processing – NLP), os computadores podem analisar textos escritos em linguagem humana e identificar conceitos, entidades, palavras-chave, relações, emoções, sentimentos e outras características, permitindo aos usuários extrair compreensão desse conteúdo.
Com esses recursos, os computadores também podem gerar texto ou fala para se comunicar com os usuários. Qualquer sistema que use linguagem natural como entrada ou saída, na forma de texto ou fala, e seja capaz de processá-la, está usando componentes naturais de processamento de linguagem. Um exemplo desse tipo de sistema é um sistema de reserva automatizado utilizado por uma empresa aérea, capaz de atender chamadas de clientes e reservar voos. Esse sistema necessita de um componente de compreensão de linguagem natural e um componente de geração de linguagem natural.
São exemplos de aplicações de IA baseadas no processamento de linguagem natural: o reconhecimento de caligrafia (por exemplo, conversão de notas manuscritas em formato digital); reconhecimento de fala (por exemplo, compreensão do significado de declarações humanas); detecção de spam (por exemplo, usando o significado das palavras em uma mensagem de e-mail para determinar se essa mensagem é classificada como indesejada); os assistentes pessoais digitais e chatbots online que podem usar compreensão de linguagem natural e geração de linguagem natural (incluindo reconhecimento de fala e geração de fala) para oferecer interfaces de usuário conversacionais; resumo; geração de texto; e pesquisa de conteúdo. NLP também é usado em muitos sistemas de aplicativos, como chatbots, sistemas de anúncios baseados em conteúdo, sistemas de tradução de fala e sistemas de e-learning.
Os componentes de NLP abordam diferentes tarefas. As tarefas mais comuns incluem: o natural language understanding (NLU) que é um componente que converte texto ou fala em uma descrição interna que supostamente carrega a semântica da entrada. A dificuldade vem da ambiguidade inerente às línguas naturais: palavras e frases são polissêmicas por natureza, portanto, um resultado NLU é propenso a erros.
O componente natural language generation (NLG) converte uma descrição interna em texto ou fala compreensível por um
ser humano. Essa tarefa pode envolver o ajuste da frase para que pareça mais natural para o usuário. O part-of-speech (POS) é usado para categorizar cada palavra na entrada como um objeto gramatical: se é um substantivo, um adjetivo, um verbo e assim por diante. O POS-tagging também é afetado pela polissemia.
Um componente named entity recognition (NER) busca reconhecer e rotular os nomes denotacionais de uma pessoa, localização, organização ou outra entidade para sequências de palavras em um fluxo de texto ou fala. Dependendo da entidade, mais informações podem ser extraídas. Por exemplo, para pessoas, seu título ou função é útil.
Um componente de respostas a perguntas tenta dar a resposta mais adequada a uma pergunta humana. O usuário pergunta algo usando linguagem natural, e o sistema fornece uma resposta em linguagem natural. Um componente machine translation (MT) traduz automaticamente um conteúdo de linguagem natural de um idioma para outro. Isso pode acontecer de text-to-text, speech-to-text, speech-to-speech ou text-to-speech. A dificuldade vem da polissemia, na qual uma palavra tem múltiplos significados, bem como de outras
fontes, como referências entre ou dentro de frases ou intenções não ditas. Em muitos casos, várias traduções são possíveis.
Um componente optical character recognition (OCR) busca converter documentos escritos na forma de imagens (possivelmente digitalizadas) em uma descrição codificada digital de seu conteúdo: texto, tabelas, figuras, títulos e suas relações. Um componente de extração de relacionamento aborda a tarefa de extrair relações entre entidades nomeadas ou mesmo entre quaisquer entidades na entrada. Por exemplo, o componente pode identificar em um texto de entrada sobre filmes que Al Pacino estrelou o filme Serpico.
Um information retrieval (IR) ou componente de pesquisa busca atender às necessidades de informações do usuário pesquisando uma coleção de conteúdo não estruturado. A consulta do usuário expressando sua necessidade de informação é comparada algoritmicamente com cada elemento da coleção, para predizer sua relevância para a necessidade de informações do usuário.
A saída deste componente é tipicamente apresentada ao usuário como uma lista de elementos selecionados classificados em ordem decrescente de sua relevância. Os componentes de recuperação de informações podem ser desenvolvidos para uma ampla gama de diferentes tipos de elementos de informação, incluindo texto livre, documentos semiestruturados, documentos estruturados, áudio, imagem e vídeo, e em diferentes linguagens naturais.
Um componente de análise de sentimento busca identificar e categorizar computacionalmente opiniões expressas em um texto, fala ou imagem. Também é conhecida como mineração de opinião. Exemplos de aspectos subjetivos podem incluir sentimentos positivos ou negativos. Um componente de sumarização automática transmite de forma mais concisa as informações importantes de um elemento de conteúdo por uma de duas abordagens (ou a combinação delas). Sumarização extrativa que seleciona conteúdo-chave relevante do conteúdo de origem para produzir uma versão resumida reduzida. Sumarização abstrativa que busca sintetizar um novo texto mais curto que transmita as informações relevantes. A sumarização abstrativa está relacionada à geração de linguagem natural.
Um componente de gerenciamento de diálogo ajuda a gerenciar uma série de interações entre um usuário e um sistema com o objetivo de melhorar a experiência do usuário, assemelhando-se a uma conversa em linguagem natural. O gerenciamento de diálogo emprega uma série de abordagens, incluindo regras declarativas que especificam respostas para gatilhos de entrada específicos e abordagens baseadas em aprendizado de máquina. O gerenciamento de diálogo pode conduzir interações baseadas em texto, por exemplo, para fornecer uma experiência mais conversacional com componentes de resposta a perguntas ou integrados com componentes de reconhecimento e síntese de fala para oferecer suporte a aplicativos em assistentes pessoais, agentes de atendimento ao cliente on-line ou robótica de cuidados pessoais.
A tradução por máquina é uma tarefa NLP, na qual um sistema de computador é usado para traduzir automaticamente texto ou fala de uma língua natural para outra. Em geral, o processo de tradução por um humano acontece em duas etapas. O primeiro passo é decodificar o significado da linguagem de origem. O segundo passo é recodificar o significado na língua-alvo.
O processo requer profundo conhecimento de gramática, semântica, sintaxe, expressões idiomáticas, contexto cultural e outros domínios. Os desafios técnicos na tradução por máquina incluem múltiplos sentidos de palavras, considerações contextuais, diferenças gramaticais e idiomas que usam sistemas de escrita baseados em logogramas. Existem muitas abordagens para a tradução por máquina, como baseada em regras, baseada em exemplos, estatística, neural ou a combinação delas.
Nos últimos anos, as redes neurais têm sido usadas para realizar tradução por máquina, o que levou a melhorias notáveis na fluência e precisão da tradução. Por meio do aprendizado profundo, o modelo pode ser treinado e personalizado para expressões específicas de domínio para atingir altos níveis de precisão. A síntese de fala converte texto de linguagem natural em fala e é chamado de sistema text-to-speech (TTS).
Em geral, o processo TTS possui três etapas: análise, modelagem e síntese. Naturalidade inteligibilidade são características importantes de um sistema TTS. A naturalidade descreve o quanto a saída soa como a fala humana, enquanto a inteligibilidade é sobre a facilidade com que a saída é entendida pelos humanos. Os sistemas de síntese de fala geralmente tentam maximizar ambas as características.
Várias abordagens são usadas na síntese de fala, incluindo síntese de concatenação, síntese formante, síntese articulatória, síntese baseada em HMM, síntese de onda senoidal e deep neural network (DNN). Cada abordagem tem suas próprias forças e fraquezas. Alguns sintetizadores de fala baseados em DNN estão se aproximando da qualidade da voz humana.
O reconhecimento de fala pode ser definido como o reconhecimento de fala como conversão, por uma unidade funcional, de um sinal de fala para uma representação do conteúdo da fala. A fala digitalizada é uma forma de dados sequenciais, de modo que técnicas que podem lidar com dados associados a um intervalo de tempo podem ser usadas para processar fonemas a partir da fala. Várias abordagens usando redes neurais têm sido usadas para reconhecimento de fala.
Uma abordagem envolve o uso de long short-term memory (LSTM). Esse método permite que uma rede neural seja treinada e implantada como uma solução de reconhecimento de fala sem ser combinada com outros processos, como hidden Markov model (HMM), e resulta em desempenho de reconhecimento razoável.
A seguir, exemplos de aplicações de IA com base no reconhecimento de fala: os sistemas de comando de voz; o ditado digital; e os assistentes pessoais. Os sistemas de respostas a perguntas podem absorver um grande número de páginas de texto e aplicar a tecnologia de resposta a perguntas para responder a perguntas feitas por humanos em linguagem natural. Essa abordagem permite que pessoas perguntem e obtenham respostas quase instantâneas para perguntas complexas.
Combinada com outras aplication programmimg interface (API) e análises avançadas, a tecnologia de resposta a perguntas distingue-se da pesquisa convencional (que é desencadeada por palavras-chave) fornecendo uma experiência de usuário mais interativa. A mineração de dados refere-se à aplicação de algoritmos para a descoberta de informações válidas, novas e úteis a partir de dados. A mineração de dados ganhou destaque no final da década de 1990 e foi reconhecida como distinta dos métodos estatísticos anteriores.
A estatística tradicional focava na coleta de dados necessários e suficientes para responder definitivamente a uma pergunta específica. A mineração de dados era tipicamente aplicada a dados redefinidos para encontrar respostas aproximadas ou ajustes probabilísticos para padrões. A mineração de dados é considerada a etapa de modelagem algorítmica no processo completo de knowledge discovery in data (KDD). Saindo dos primeiros esforços de mineração de dados, um consórcio foi capaz de detalhar todas as etapas da mineração de dados no padrão da indústria cross-industry process model for data mining (CRISP-DM) publicado em 2000.
A mineração de dados abrange uma série de técnicas, incluindo árvores de decisão, clustering e classificação. À medida que as tecnologias de big data surgiram em meados dos anos 2000, a aplicação de algoritmos não podia mais ser separada do armazenamento de dados, e a amostragem cuidadosa deu lugar a um processamento mais rápido e intensivo de dados. Essas mudanças levaram à nova descrição da versão big data do processo de ciclo de vida KDD como atividades de ciência de dados. Embora KDD e descoberta de conhecimento sejam termos comuns em IA, o que um computador produz não é conhecimento, é informação. A figura abaixo demonstra como o ciclo de vida do sistema de IA pode ser mapeado.
O planejamento é uma subdisciplina da IA. É fundamental para aplicações industriais e importante em muitas áreas de negócio, como gestão de riscos, saúde, robôs colaborativos industriais, segurança cibernética, assistentes cognitivos e defesa. O planejamento permite que a máquina encontre automaticamente uma sequência procedimental de ações, para atingir determinados objetivos enquanto otimiza determinadas medidas de desempenho.
Do ponto de vista do planejamento, um sistema ocupa um determinado estado. A execução de uma ação pode alterar o estado do sistema, e a sequência de ações propostas pelo planejamento pode mover o sistema do estado inicial para mais próximo do estado objetivo.
A NBR ISO/IEC 22989 de 10/2023 – Tecnologia da informação — Inteligência artificial — Conceitos de inteligência artificial e terminologia estabelece terminologia para IA e descreve conceitos no campo da IA. Este documento pode ser utilizado no desenvolvimento de outras normas e no apoio às comunicações entre as diversas partes interessadas. Este documento é aplicável a todos os tipos de organizações (por exemplo, empresas comerciais, agências governamentais, organizações sem fins lucrativos).
Os avanços na capacidade de computação, redução dos seus custos, disponibilidade de grandes volumes de dados de muitas fontes, currículos acessíveis de aprendizado online e algoritmos capazes de atender ou exceder o desempenho humano para tarefas específicas em velocidade e precisão permitiram as aplicações práticas de IA, a tornando um ramo cada vez mais importante da tecnologia da informação. A IA é um campo altamente interdisciplinar amplamente baseado em ciência da computação, ciência de dados, ciências naturais, humanidades, matemática, ciências sociais e outros.
São utilizados termos como “inteligente”, “inteligência”, “compreensão”, “conhecimento”, “aprendizado”, “decisões”, “habilidades” etc. No entanto, a intenção não é a de antropomorfizar sistemas de IA, mas descrever o fato de que alguns sistemas de IA podem simular rudimentarmente essas características.
Existem muitas áreas da tecnologia de IA. Essas áreas estão intrincadamente ligadas e se desenvolvendo rapidamente, por isso é difícil encaixar a relevância de todos os campos técnicos em um único mapa. A pesquisa da IA inclui aspectos como “aprendizado, reconhecimento e predição”, “inferência, conhecimento e linguagem” e “descoberta, busca e criação”. A pesquisa também aborda interdependências entre esses aspectos.
O conceito de IA como fluxo de processos de entrada e saída é compartilhado por muitos pesquisadores de IA, e a pesquisa sobre cada etapa desse processo está em andamento. Os conceitos e a terminologia padronizados são necessários às partes interessadas da tecnologia para serem melhor compreendidos e adotados por um público mais amplo.
Além disso, os conceitos e as categorias de IA permitem a comparação e classificação de diferentes soluções em relação às propriedades como fidedignidade, robustez, resiliência, confiabilidade, precisão, segurança e privacidade. Isso permite que as partes interessadas selecionem soluções apropriadas para suas aplicações e comparem a qualidade das soluções disponíveis no mercado.
Como este documento fornece uma definição para o termo IA apenas no sentido de uma disciplina, o contexto para seu uso pode ser descrito da seguinte forma: A IA é um campo técnico e científico dedicado aos sistemas desenvolvidos que geram saídas como conteúdo, previsões, recomendações ou decisões para um determinado conjunto de objetivos definidos pelo ser humano.
Este documento fornece conceitos padronizados e terminologia para ajudar a tecnologia de IA a ser melhor compreendida e usada por um conjunto mais amplo de partes interessadas. Destina-se a um grande público, incluindo especialistas e não praticantes. A leitura de algumas seções específicas pode, no entanto, ser mais fácil com uma formação em ciência da computação.
A inteligência artificial (IA) é a 〈disciplina〉 pesquisa e desenvolvimento de mecanismos e aplicações de sistemas de IA. A pesquisa e o desenvolvimento podem ocorrer em diversos campos, como ciência da computação, ciência de dados, humanidades, matemática e ciências naturais. O sistema de inteligência artificial pode ser desenvolvido para gerar saídas como conteúdo, previsões, recomendações ou decisões para um determinado conjunto de objetivos definidos pelo homem. O sistema desenvolvido pode utilizar diversas técnicas e abordagens relacionadas à inteligência artificial para desenvolver um modelo para representar dados, conhecimento, processos etc. que podem ser usados para realizar tarefas. Os sistemas de IA são projetados para operar com diferentes níveis de automação.
O estudo interdisciplinar e o desenvolvimento de sistemas de IA visam a construção de sistemas de computadores capazes de executar tarefas que normalmente requerem inteligência. As máquinas habilitadas para IA têm o objetivo de perceber certos ambientes e tomar ações que atendam suas demandas.
A IA utiliza técnicas de diversas áreas, como ciência da computação, matemática, filosofia, linguística, economia, psicologia e ciência cognitiva. Em comparação com a maioria dos sistemas não IA convencionais, há uma série de recursos interessantes que são compartilhados por alguns ou por todos os sistemas de IA. O interativo compreende as entradas para sistemas de IA são geradas por sensores ou por meio de interações com humanos, com saídas que podem resultar em estimular um atuador ou fornecer respostas a humanos ou máquinas. Um exemplo pode ser o reconhecimento de objetos como resultado de um sistema de IA sendo apresentado à imagem de um objeto.
O contextual envolve alguns sistemas de IA que podem se basear em múltiplas fontes de informação, incluindo informações digitais estruturadas e não estruturadas, bem como entradas sensoriais. Os sistemas de supervisão envolvem os que podem operar com vários graus de supervisão e controle humano, dependendo da aplicação. Um exemplo é um veículo autônomo com diferentes níveis de automação.
O sistema adaptável envolve alguns sistemas de IA que são desenvolvidos para utilizar dados dinâmicos em tempo real e retreinar para atualizar sua operação com base em novos dados. Da IA forte e fraca à IA generalista e restrita, do ponto de vista filosófico, a viabilidade das máquinas que possuem inteligência tem sido debatida. Esse debate levou à introdução de dois tipos diferentes de IA: a denominada IA fraca e a IA forte.
Na IA fraca, o sistema só pode processar símbolos (letras, números etc.) sem nunca entender o que faz. Na IA forte, o sistema também processa símbolos, mas entende verdadeiramente o que faz. As denominações “IA fraca” e “IA forte” são principalmente importantes para os filósofos, mas irrelevantes para pesquisadores e profissionais de IA. Após esse debate, apareceram as qualificações de “IA restrita” versus “IA generalista”, que são mais adequadas ao campo da IA.
Um sistema de “IA restrita” é capaz de resolver tarefas definidas para resolver um problema específico (possivelmente muito melhor do que os humanos fariam). Um sistema de “IA generalista” aborda uma ampla gama de tarefas com um nível satisfatório de desempenho. Os sistemas atuais de IA são considerados “restritos”. Ainda não se sabe se os sistemas de IA “generalistas” serão tecnicamente viáveis no futuro.
É possível olhar para os sistemas de IA do ponto de vista do paradigma do agente, uma vez que algumas aplicações de IA visam simular inteligência humana e comportamento humano. Definida como uma disciplina da engenharia, a IA pode ser vista como o domínio que tenta construir agentes artificiais apresentando comportamento racional. O paradigma do agente estabelece uma linha clara separando o agente e o ambiente no qual evolui.
Um agente de IA interage com seu ambiente por meio de sensores e atuadores, tomando ações que maximizam sua chance de alcançar com sucesso seus objetivos. Os ambientes têm características diferentes dependendo da tarefa que está sendo realizada, e essas características impactam o nível de dificuldade de resolução de problemas.
Nesse paradigma, vários tipos de agentes de IA podem ser definidos, dependendo de sua arquitetura: agentes reflexos, que dependem apenas da situação atual para escolher uma ação; agentes baseados em modelos, que dependem de um modelo de ambiente que os permita considerar os resultados de suas ações disponíveis; agentes de objetivo ou de utilidade, que dependem de uma função de utilidade interna que os permita escolher ações que atinjam objetivos e, entre objetivos, procurar os mais desejáveis; agentes de aprendizado, que podem coletar informações sobre seu ambiente e aprender a melhorar seu desempenho. Várias arquiteturas sofisticadas e de alto nível baseadas em diferentes teorias foram desenvolvidas para implementar agentes.
O significado específico de “conhecimento” em IA merece uma discussão mais detalhada, devido à prevalência desse conceito no documento e em campo. Enquanto em outros domínios o termo pode estar associado às capacidades cognitivas, no contexto da IA é um termo puramente técnico, que se refere a conteúdos, não a capacidades. O conceito de conhecimento faz parte da hierarquia dados-informações-conhecimento, conforme a qual os dados podem ser usados para produzir informações, e as informações podem ser usadas para produzir conhecimento.
No contexto de IA, são processos puramente técnicos, não cognitivos. O conhecimento difere da informação porque a informação é observada pelo sistema, enquanto o conhecimento é o que o sistema retém dessas observações. O conhecimento é estruturado e organizado, se abstrai das especificidades das observações individuais. Dependendo do objetivo, a mesma informação pode levar a diferentes conhecimentos.
O conhecimento difere de sua representação na medida em que o mesmo conhecimento pode ter representações diferentes: pode aparecer sob diferentes formas concretas, cada uma com seus prós e contras, mas todas têm o mesmo significado. Essas distinções têm um impacto técnico, pois algumas abordagens, métodos e outros tópicos de estudo de IA dependem inteiramente da capacidade de produzir conhecimento diferente para a mesma informação ou representações diferentes para o mesmo conhecimento.
A cognição compreende a aquisição e o processamento do conhecimento por meio do raciocínio, da experiência exclusiva ou compartilhada, do aprendizado e da percepção. Engloba conceitos como atenção, formação de conhecimento, memória, julgamento e avaliação, raciocínio e cálculo, resolução de problemas e tomada de decisão, compreensão e produção de linguagem.
O retreinamento consiste em atualizar um modelo treinado, treinando-o com diferentes dados de treinamento. Isso pode ser necessário devido a muitos fatores, incluindo falta de grandes datasets de treinamento, desvio de dados e desvio de conceito. No desvio de dados, a precisão das predições do modelo decai ao longo do tempo devido às alterações nas características estatísticas dos dados de produção (por exemplo, a resolução de imagem mudou ou uma classe se tornou mais frequente nos dados do que outra).
Nesse caso, o modelo precisa ser retreinado com novos dados de treinamento que representem melhor os dados de produção atuais. No desvio de conceito, a fronteira de decisão se move (por exemplo, o que é legal e o que não é, tende a mudar quando novas leis são publicadas), o que também degrada a precisão das predições, mesmo que os dados não tenham mudado.
No caso de desvio de conceito, as variáveis de destino nos dados de treinamento precisam ser novamente rotuladas e o modelo retreinado. Ao retreinar um modelo existente, uma consideração específica é superar ou minimizar os desafios do chamado esquecimento catastrófico. Muitos algoritmos de aprendizado de máquina são bons em tarefas de aprendizado apenas se os dados forem apresentados todos de uma vez.
Quando um modelo é treinado em uma determinada tarefa, seus parâmetros são adaptados para resolver aquela tarefa. Quando novos dados de treinamento são introduzidos, adaptações baseadas nessas novas observações substituem conhecimentos que o modelo havia adquirido anteriormente. Para redes neurais, esse fenômeno é conhecido como “esquecimento catastrófico” e é considerado uma de suas limitações fundamentais.
O aprendizado continuado, também conhecido como aprendizado contínuo ou aprendizado ao longo da vida, é o treinamento incremental de um modelo que ocorre continuamente enquanto o sistema está sendo executado em produção. É um caso especial de retreinamento, no qual as atualizações do modelo são repetidas, ocorrem com alta frequência e não envolvem qualquer interrupção na operação.
Em muitos sistemas de IA, o sistema é treinado durante o processo de desenvolvimento, antes que seja colocado em produção. Isso é, por natureza, semelhante ao desenvolvimento-padrão de software, em que o sistema é construído e testado totalmente antes de ser colocado em produção.
O comportamento desses sistemas é avaliado durante o processo de verificação e espera-se que permaneça inalterado durante a fase de operação. Os sistemas de IA que incorporam aprendizado continuado implicam na atualização incremental do modelo no sistema à medida que opera durante a produção. A entrada de dados no sistema durante a operação não é apenas analisada para produzir uma saída do sistema, mas também usada simultaneamente para ajustar o modelo no sistema, com o objetivo de melhorar o modelo com base nos dados de produção.
Dependendo do desenho do sistema de IA de aprendizado continuado, pode haver ações humanas necessárias no processo, como, por exemplo, rotulagem de dados, validação da aplicação de uma atualização incremental específica ou monitoramento do desempenho do sistema de IA. O aprendizado continuado pode ajudar a lidar com as limitações dos dados de treinamento originais e também pode ajudar a lidar com o desvio de dados e o desvio de conceito.
No entanto, o aprendizado continuado traz desafios significativos para assegurar que o sistema de IA continue funcionando corretamente à medida que aprende. A verificação do sistema em produção é necessária, assim como a necessidade de capturar os dados de produção para que se tornem parte do dataset de treinamento, caso o sistema de IA seja atualizado em algum momento futuro.
Filed under: atendimento ao cliente, Atendimento ao consumidor, automatização e controle de processos, Defesa do consumidor, direito do cidadão, Gestão do conhecimento, normalização, segurança da informação, Tecnologia da Informação (TI) | Leave a comment »