359f38463d487e9e29bd20e24f0c050a
359f38463d487e9e29bd20e24f0c050a
SUMÁRIO
http://www.iinterativa.com.br/usando-big-data-para-uma-melhor-experiencia-consumidor-
hiperconectado/
“[...] o big data pode ser descrito como um rio de informações em correnteza
que nunca para [...]” (DAVENPORT, 2014, p.114). A partir desta afirmação, a
próxima seção dedica-se a explicar o que é o Big Data, seus conceitos e expor um
panorama geral do crescente número de dados produzidos pela sociedade atual.
Em seguida, disserta-se sobre as tecnologias de Big Data, que surgem com o
propósito de analisar os dados não-estruturados e em grandes volumes,
5
Analisando as definições acima, percebe-se que o dado, por si só, não possui
significado claro e precisa, portanto, ser capturado e analisado, para que se
transforme em informação. Uma característica importante a ser analisada sobre os
dados é que antes do Big Data, os dados coletados pelas empresas provinham de
fontes internas e eram, majoritariamente, dados estruturados, ou seja, “[...] dados
formatados em linhas e colunas numéricas organizadas” (DAVENPORT, 2014,
p.113). Esse tipo de dado já vem sendo explorado há um tempo pelas organizações,
estando presente em bancos de dados, arquivos sequenciais e com relação de
importância. (CIO, 2012 apud CANARY, 2013).
No entanto, os dados que as empresas irão trabalhar caso intencionem
realizar projetos de Big Data são, em sua maioria, dados não-estruturados
provenientes das mais diversas fontes, como postagens em mídias sociais, vídeos,
informações de GPS, fotos, etc. Cada um destes dados possui um formato diferente
e todos eles precisam ser lidos e assimilados pelas tecnologias de Big Data.
Segundo uma pesquisa realizada pela International Data Corporation (IDC)
em 2011 (apud CANARY, 2013) quase 90% dos dados que provém da Internet são
dados não estruturados e esses números tendem a aumentar. Estes resultados
reafirmam a importância das empresas aprenderem a trabalhar com esse tipo de
dados.
Os dados não-estruturados podem ser classificados em três tipos, de acordo
com a Information Systems Audit and Control Association (ISACA) (2013 apud
HENRIQUES;COSTA, 2014, p.5):
Dados voluntários: criados e compartilhados pelos próprios indivíduos, como
perfis em redes sociais;
8
A partir das informações coletadas nesse site, criou-se o quadro a seguir para
facilitar a análise da quantidade de dados produzidos por diversas plataformas e
mídias sociais nos tempos de um minuto, dez minutos, trinta minutos, uma hora e
um dia.
Quadro – Quantidade de dados produzidos na Internet em tempo real
1 10 30 1 1 dia
minuto minutos minutos hora
Twitter - tuítes 34 3.42 10.2 20.52 492.480
2.000 0.000 60.000 0.000 .000
Youtube - horas 13 1.38 4.16 8.330 199.929
assistidas 8.840 8.400 5.200 .400 .600
Google - buscas 27 2.76 8.29 16.58 398.131
6.480 4.800 4.400 8.800 .200
Amazon - itens 3.0 30.6 91.8 183.6 4.406.4
comprados 60 00 00 00 00
Facebook - 3.1 31.3 93.9 187.9 4.509.7
curtidas 31.760 17.600 52.800 05.600 34.400
LinkedIn - busca 10. 109. 327. 655.2 15.724.
de usuários 920 200 600 00 800
11
McKinsey “Big data” refers to datasets whose size is beyond the ability of typical
Global database software tools to capture, store, manage, and analyze. This definition is
Institute intentionally subjective and incorporates a moving definition of how big a dataset
(2011, needs to be in order to be considered big data […].
p.1)
ISACA Big data refere-se, principalmente, aos conjuntos de dados que são muito
(2013 grandes ou com rápidas mudanças para serem analisados com técnicas de banco
p.5) de dados relacionais tradicionais ou multidimensionais ou ferramentas de software
comumente usadas para capturar, gerenciar e processar os dados em um tempo
razoável.
Magalhães et al. ([2014?], não [...] Big Data é uma grande massa
paginado) de dados/metadados aos quais geramos
todos os dias, com características
estruturadas (armazenados em banco de
dados) e não estruturadas (fotos, vídeos, e-
mails) e que, na maioria das vezes, é
analisada para atender a eventos em tempo
real, buscando a partir da autenticidade dos
dados dar sentido as informações
relevantes passíveis de agregar valor tanto
para empresas que buscam estratégias
para seu negócio como para governos que
buscam entender as demandas e
características da população.
Taurion (2013a) define o Big Data utilizando cinco fatores: volume, variedade,
velocidade, veracidade e valor.
14
Big Data não trata apenas da dimensão volume, como parece à primeira vista,
mas existe também uma variedade imensa de dados, não estruturados, dentro e fora
das empresas (coletados das mídias sociais, por exemplo), que precisam ser
validados (terem veracidade para serem usados) e tratados em velocidade
adequada para terem valor para o negócio. A fórmula é então, Big Data = volume +
variedade + velocidade + veracidade, gerando valor. (TAURION, 2013a, não
paginado).
Figura – Os 5 Vs do Big Data
Big Data
Valor
uma diferente perspectiva ou mesmo poderá ser combinado com os outros dados,
de forma a indicar novas informações à empresa, que podem transformar-se em
valiosas decisões. (TAURION, 2014b).
Taurion (2013a, não paginado) conclui sua explicação dizendo que “Big Data
não é apenas um produto de software e hardware, mas um conjunto de tecnologias,
processos e práticas que permitem às empresas analisarem dados a que antes não
tinham acesso e tomar decisões ou mesmo gerenciar atividades de forma muito
mais eficiente”.
Em contrapartida, Davenport (2014, p.6) acredita que a maioria das definições
do termo são equivocadas, apesar do grande potencial do conceito.
Percebe-se, pela análise destes conceitos apresentados, que boa parte dos
especialistas definem o Big Data pelas características dos três Vs (volume,
variedade e velocidade) e, em alguns casos, até mesmo acrescentando mais dois
Vs (veracidade e valor). Davenport (2014, p.7) discorda destas definições por
acreditar que pode existir Big Data mesmo sem a presença dos três ou cinco Vs. Ele
afirma que “É verdade que essas são características importantes, mas e se você só
tiver um ou dois Vs? Será que isso significa que você só tem um terço ou dois
quintos do big data?”
Davenport (2014, p.6) também critica o erro mais comum relacionado ao
entendimento do termo Big Data, que seria acreditar que se trata somente de um
grande volume de dados. De acordo com o autor, se não se pode tomar esta
afirmação como verdade, considerando que o que definimos como um grande
volume de dados na atualidade poderá ser insignificante no futuro.
Para algumas empresas, o volume de dados analisados não chega a ser
exorbitante, sendo a falta de estrutura dos mesmos o grande problema a ser
considerado com relação ao Big Data (DAVENPORT, 2014, p.6-7).
Davenport (2014, p.8) aconselha então que, ao invés de prender-se a uma
definição única do termo, deve-se analisar todas as muitas variações e
possibilidades do Big Data e explorá-la de acordo com as necessidades da
organização. (DAVENPORT, 2014, p.8).
17
Uma grande diferença no que tange o Big Data é que antes os dados eram,
em sua maioria, encontrados internamente nas empresas e agora eles estão em
toda parte. Podem “[...] incluir sequências do genoma humano, sensores instalados
em poços de petróleo, comportamentos de células cancerígenas, localização de
produtos em paletes, interações nas mídias sociais ou sinais vitais do paciente”.
(DAVENPORT, 2014, p.119).
Percebe-se que as empresas acreditam no potencial do conceito, apesar de
encontrarem-se ainda em fase de planejamento. Segundo Taurion (2013a, não
paginado) “[...] pelo menos 2/3 das empresas pesquisadas sentem que Big Data
oferece um potencial muito grande para a criação de vantagens competitivas”,
porém somente 6% já possui algum projeto dessa natureza em andamento. 47%
estão ainda na fase de estudos e 28% possuem algum projeto piloto. No entanto, as
empresas não devem somente se impressionar com o volume de dados, mas sim
fazer algo a respeito para analisá-los e compreendê-los, de forma a transformá-los
em conhecimento, inovações e valor para o negócio. Deve-se saber que nem tudo
será utilizável - estima-se que somente 25% destes dados possuem algum tipo de
valor – porém, até então, somente 1% dos zettabytes gerados são analisados.
(HARVARD BUSINESS REVIEW, 2013, p.4).
19
Para tal, é necessário que estas revoluções na análise dos dados extrapolem
os processos de gestão e tecnologia. Precisam existir mudanças nas orientações
básicas e mesmo na cultura organizacional. A forma de pensar no negócio irá mudar
com o advento do Big Data. Os produtos e serviços serão agora totalmente focados
no cliente, no que ele quer, pensa e espera. “As empresas que conseguirem analisar
e se adaptar rapidamente, usando dados a partir de fontes internas e externas,
serão claramente as vencedoras.” (HARVARD BUSINESS REVIEW, 2013, p.5-6).
Portanto, Big Data não é teoria ou futurologia. Geramos um imenso volume de
dados a cada dia e análises de padrões e correlações nesta massa de dados podem
produzir informações valiosíssimas em todos os setores da sociedade humana, de
governos buscando entender demandas da população a empresas buscando se
posicionar mais competitivamente no mercado. (TAURION, 2013a, não paginado).
Entende-se que os conceitos e tecnologias que envolvem o Big Data
influenciarão as empresas por muitas décadas vindouras. Davenport (2014, p.14)
afirma que “Para que tais conceitos e tecnologias desaparecessem, as empresas e
organizações teriam de perder subitamente o interesse em maneiras de poupar
dinheiro, vender mais produtos e serviços e encantar os clientes – um cenário
bastante improvável”.
Ainda que exista muita discordância sobre uma definição concreta do que é
Big Data, é interessante ressaltar que mais importante que o termo, são os
benefícios que o Big Data pode trazer às organizações.
“A Internet das Coisas vai criar uma rede de centenas de bilhões de objetos
identificáveis e que poderão interoperar uns com os outros e com os data centers e
suas nuvens computacionais. A Internet das Coisas vai aglutinar o mundo digital
com o mundo físico, permitindo que os objetos façam parte dos sistemas de
informação. Com a Internet das Coisas podemos adicionar inteligência à
infraestrutura física que molda nossa sociedade. A Internet das Coisas, com seus
objetos gerando dados a todo instante, é um impulsionador poderoso para o Big
Data.” (TAURION, 2013a, não paginado).
Na década de 1980, o filósofo francês Pierre Levy (apud DINIZ, 2006, p.59)
criou o termo "ecologia coletiva" para designar a articulação de "coletividades
pensantes homenscoisas". Foi este pensamento que inspirou a criação da chamada
"Internet das Coisas". A Internet foi criada com o propósito de proporcionar a
comunicação a qualquer tempo e em qualquer lugar, entre pessoas, porém a
Internet das coisas extrapola esta definição, adicionando a comunicação entre
quaisquer coisas.
Segundo Singer (2012, não paginado), o termo “[...] é usado para designar
processos que envolvam objetos conectados em rede e que produzam e/ou
processem informação em tempo real e de forma autônoma.”
Já Evans (2001, p.2) da Cisco Internet Business Solutions Group, considera
que a Internet das Coisas só passou a existir a partir do momento que haviam mais
objetos ou coisas conectados do que pessoas. Isso aconteceu oficialmente em
2010, quando o número de aparelhos conectados à Internet chegou a 12,5 bilhões,
enquanto a população mundial era de 6,8 bilhões, um total de 1,84 aparelhos
conectados à Internet por pessoa. Porém, refinando estes números, Evans (2011,
p.3) acredita que a Internet das coisas surgiu entre 2008 e 2009.
A figura , a seguir, representa a Internet das Coisas segundo Evans (2011,
p.2).
24
clientes. No entanto, grande parte dos usuários destes sites não possuem o hábito
de ler estes termos e concordam com os mesmos, sem saberem exatamente ao que
estão se sujeitando. (MAGALHÃES et al., [2014]).
Em sites de relacionamento, como o Facebook estas questões podem ir
além. Quando o usuário concorda com os Termos de Uso e adiciona suas fotos e
dados no site, o Facebook armazena os mesmos por tempo indeterminado, mesmo
que o usuário decida apagar sua conta, sob o pretexto que um dia possa mudar de
ideia e decidir reabri-la. Sendo assim, tudo que um dia foi publicado em sua conta
torna-se, automaticamente, propriedade da empresa. (MAGALHÃES et al., [2014]).
Taurion (2013a) afirma que possuindo a data de nascimento, o gênero e o
código postal de uma pessoa é possível identificá-la em bases de dados abertas e
públicas em 87% dos casos, o que pode vir a ser preocupante. Em alguns casos,
esses dados podem ser usados de forma maliciosa, pois informações como “estou
de férias” em mídias sociais podem, por exemplo, aumentar o risco de roubo à
propriedade, dentre outros problemas.
As empresas devem sempre atentar-se as questões legais relacionadas ao
uso de dados, para não gerar constrangimentos e inconvenientes que podem levar,
não só a perda de clientes, mas também gerar processos legais. Para evitar tais
consequências indesejadas é interessante “[...] criar uma política de segurança da
informação que classifique os dados de acordo com seu nível de privacidade”.
(TAURION, 2013a, não paginado).
É necessário atentar-se também, ao fato de, quando tratados, os dados do
Big Data poderem ser facilmente triangulados e integrados com diversas outras
fontes e, por vezes, um dado que individualmente não exporia um cliente (como
comportamentos, hábitos de compra etc.), combinados podem revelar identificação
pessoal íntima ou mesmo segredos industriais que podem não só gerar processos
judiciais às organizações, mas também prejudicar sua imagem. (TAURION, 2013a).
Deixamos nossa pegada digital a todo momento, seja usando o Internet
Banking, comprando pela Internet, acessando um buscador, tuitando, comentando
alguma coisa no Facebook, usando o smarphone, ativando serviços de localização.
Aglutinar todas estas informações permite a uma empresa ou governo ter uma visão
bem abrangente daquela pessoa e de seus hábitos e costumes. Onde esteve a cada
28
dia e o que viu na Internet. Se tem alguma doença ou se tem propensão a sofrer de
uma. Esta questão nos leva a outro ponto extremamente importante: garantir a
segurança deste imenso volume de dados. (TAURION, 2013a, não paginado).
Com o acesso das empresas a esses dados, Taurion (2013a) afirma que se
pode, inclusive, dar um novo sentido à palavra anonimato. Tendo em à vista o
acesso cada vez mais frequente e livre de barreiras a informações pessoais, a
fronteira entre o público e o privado torna-se menos evidente e a privacidade cada
vez menos respeitada. Os clientes não se importam mais em oferecer seus dados às
empresas, desde que recebam em troca serviços e produtos melhores e
personalizados. Porém, para esta troca, acredita-se na responsabilidade da empresa
em salvaguardar estar informações. Violações destes dados podem estragar
relações entre o cliente e a empresa e gerar custos irreparáveis às últimas. “As
empresas que podem ser transparentes com relação à coleta e uso de informações
ao mesmo tempo em que demonstram que a gestão de risco cibernético tem alta
prioridade, terão uma vantagem competitiva. ” (HARVARD BUSINESS REVIEW,
2013, p.11).
“O ponto não é ficar deslumbrado com o volume de dados, mas sim analisa-
los – convertê-los em conhecimento, inovações e valor de negócio. O mesmo estudo
sugere que apenas 1% dos 2,8 zettabytes é analisada de alguma maneira”.
(HARVARD BUSINESS REVIEW, 2013, p.4). Sendo assim, a análise do Big Data
33
ainda passará por muitas transformações até que todo seu potencial seja utilizado
pelas organizações.
Davenport (2014, p.57) afirma: Antes de mais nada, vocês precisam parar de
pensar em como o big data se encaixa no seu negócio [...] No entanto, o passo mais
importante é decidir-se por uma estratégia específica para o big data. A sua equipe
de administração sênior precisa se reunir para começar a falar sobre o que big data
pode fazer pela empresa e quais das vastas possibilidades vocês pretendem
explorar. Esse processo deve começar com uma reflexão ponderada sobre os
objetivos que vocês visam atingir com o big data. (Davenport, 2014, p.57).
A revolução nas estratégias empresariais está apenas no começo e ela se
dará não somente nos processos de gestão e tecnologia, mas na empresa como um
todo, desde suas orientações básicas à cultura das organizações. “Nós
simplesmente não podemos pensar nos negócios da mesma forma agora que temos
esse novo recurso. ” (HARVARD BUSINESS REVIEW, 2013, p.5).
Taurion (2013a, não paginado) alerta em seu livro que “A questão não é mais
se vou ou não adotar Big Data, mas quando e com que estratégia adotarei. ”
O Big Data deve ser aproveitado pelas empresas por sua capacidade de
interconectar à informação que aparece dispersa em diferentes sistemas em um
único sistema central. Agregando estes dados presentes em diferentes formatos, as
organizações podem melhorar sua capacidade de decisão e, consequentemente, a
performance da empresa como um todo. (UNIVERSITY ALLIANCE, [20--]).
Breternitz e Silva (2013, p.20) afirmam que a ideia central do Big Data é sua
utilização na tomada de decisões, sendo assim, as organizações devem preparar-
se, implementando sistemas automatizados que permitam extrair respostas rápidas
e ágeis com relação às informações dos clientes (HARVARD BUSINESS REVIEW,
2013, p.1), pois cada vez mais as decisões deverão ser tomadas “[...] baseadas em
dados e rápidas experimentações e não mais em intuição e estimativas”. (HARVARD
BUSINESS REVIEW, 2013, p.3).
Há algum tempo, as empresas vêm utilizando análises de dados para auxiliar
no processo decisório. No entanto, com o surgimento do Big Data, algumas
estruturas internas precisarão passar por mudanças. Tradicionalmente, um analista
separaria alguns dados e o analisaria, criando um modelo que oriente o gestor para
tomada de decisão baseada nos resultados obtidos. Porém, com o Big Data, os
dados possuem um fluxo contínuo e rápido que necessitam uma análise constante
com resultados sempre atualizados, para que, desta forma, possam auxiliar nas
decisões em tempo real. (DAVENPORT, 2014, p.16).
Os gestores e tomadores de decisão podem obter grandes benefícios com a
utilização do Big Data, tornando as decisões cada vez menos intuitivas e cada vez
mais baseadas em fatos. Davenport (2014, p.67) afirma “A inteligência competitiva e
de mercado costumava ser um exercício bastante intuitivo, mas o big data está
começando a mudar essa abordagem. Se vocês puderem obter dados mais
detalhados e fazer uma análise mais sistemática desses dados, o resultado
provavelmente será decisões estratégicas”.
25%(vinte e cinco por cento) dos dados eram digitalizados, no ano de 2007, esse
numero saltou para 93% (noventa e três por cento), e no ano de 2013, foi para 98%
(noventa e oito por cento). Esse crescimento, devido principalmente a fatores como
aumento do acesso a dispositivos eletrônicos e a popularização da internet, está
gerando uma revolução no tratamento de dados.
A aplicabilidade do Big Data está no tratamento desse volume de dados, que
vem de variadas fontes e que demandam alta velocidade de processamento, na
busca por um valor (Taurion, 2013).
Esse valor, obtido através de correlações entre dados, pode se dar através de
descoberta de padrões, preferências de usuários, aumento no número de vendas
em determinada época do ano, descoberta de cura de doenças, entre diversos
outros
Por ser um assunto relativamente novo, muitos artigos que mencionam o
tema, o fazem de maneira conceitual e sem abranger alguns detalhes, que vão além
de conceitos pontuais. A parte prática de Big Data é um ponto importante a ser
mencionado para um maior entendimento.
Existe um conceito, ainda novo no mercado que trata sobre modelos NewSql,
os quais mantém o modelo ACID ao mesmo tempo que buscam manter o
rendimento de banco de dados NOSQL, os quais com o decorrer dos anos, devem
ser aprimorados até se tornarem padrões, melhorando assim a todos os pontos do
sistema, sem que seja necessário abdicar de nenhum, como ocorre no modelo CAP.
(Intel,2015)
41
FERRAMENTAS
AMBIENTES EM NUVEM
HDFS
O Hadoop Distributed File System ou Sistema de arquivos distribuídos surge
com a necessidade de se trabalhar com arquivos grandes. O HDFS faz a quebra em
blocos desses arquivos e os distribui em diversos nós (máquinas), com replicação
em grau três como segurança no caso de um nó falhar. O Name Node é a máquina
responsável pelo gerenciamento dos outros nós, e envia informações (Heartbeats)
para o código, em caso de um nó falhar, além fazer a redistribuição dos blocos de
dados quando houver falha, sempre mantendo grau três. (Paiva, 2016)
YARN
É um gerenciador de recursos distribuídos do cluster. Através do Resource
Manager, realiza a locação de recursos nos nós do cluster para a realização de
tarefas das aplicações. Dessa maneira, cada aplicação sabe em que maquina os
seus recursos estão alocados, e mantém o princípio da localidade, que é realizar o
processamento do código onde estão os dados. (Yarn, 2016)
MAP REDUCE
É o sistema analítico do Hadoop desenvolvido para operar com grandes
volumes de dados. Segue o princípio da localidade em que o código é enviado para
o local onde os dados estão para ser processado. O processamento analítico é
distribuído em vários servidores, dos quais se deseja tirar informação. Através de um
processamento paralelo/distribuído, os dados são divididos em partições ou ficheiros
43
através da função Split. Nesse processo, o Map reduce monta a separação dos
dados em partições, mapeia as atividades em cada local e duplica em ambientes e
depois faz as reduções. Durante o mapeamento através do processamento em cada
nó da partição ou cluster, são formados pares valor chave enviados ao redutor,
agrupando pares com as mesmas características. Basicamente são três fazes, a
saber: Map, onde todos os dados são reunidos; Shuffle, onde os dados são reunidos
e organizados e Reduce, onde os dados são associados e correlacionados. Nem
todos os algoritmos se encaixam nesse modelo. (Paiva, 2016)
HADOOP
É a ferramenta mais importante de Big Data. Através de nós de clusters usa
computação distribuída com alta escalabilidade, tolerância a falhas e confiabilidade.
Sendo uma plataforma Java de computação, ela é voltada para clusters e
processamento de grande volume de dados A ideia principal do Hadoop é tratar essa
grandes quantidades de dados sem ter a necessidade de copiar esses dados em
outro servidor, o que ocasionaria mais tempo e investimento. No processo Hadoop,
os dados são tratados dentro dos servidores e em tempo real, gerando mais
praticidade no processamento e economicidade de tempo e dinheiro. Busca manter
a redundância e tolerância a falhas através da replicação dos dados, assim, se
houver falha em um dos clusters (rodapé), haverá outro disponível para manter o
processamento, além de poder executar um algoritmo, em qualquer uma das
partições ou clusters, sendo esse algoritmo disseminado em outros nós de clusters,
o que simplifica o processo e deixa o sistema mais rápido. É formado basicamente
pelo framework Map Reduce, pelo gerenciador de recursos distribuídos (YARN) e
pelo sistema de arquivos distribuídos (HDFS). (Intel, 2016)
MPP
Massively Parallel Processing ou processamento massivo paralelo, é um
paradigma de Big Data, feito para processar grandes quantidades de informações, é
escalável em relação a quantidade de dados, e suporta linguagem SQL e tabelas
relacionais, sua diferença quanto ao Hadoop reside no fato de que é um paradigma
de estrutura rígida, e não permite trabalhar com imagens ou documentos de texto.
44
HBASE
É um banco de dados Nosql que processa grandes volumes de dados de
maneira rápida e em tempo real. Trabalha com o conceito chave – valor, em que
cada dado é associado a outro trazendo uma característica similar ao modelo
relacional com sua organização se dando em linhas, colunas, tabelas e famílias de
colunas. No entanto não há a obrigatoriedade de esquemas, como ocorre no modelo
SQL, portanto pode haver linhas sem determinadas colunas e vice-versa. Nesse
modelo, diferentemente do SQL, os dados não são alterados, apenas somados,
podendo haver várias versões sobre determinada chave ou valor. (Paiva, 2016)
/(CPBR6, 2013)
SPARK
Ferramenta de processamento de dados que roda até 100 vezes mais rápido
que o Map Reduce. Como o Map reduce não processa bem todos os algoritmos, o
Spark atua sendo mais abrangente na questão de diferentes tipos de
processamento. Também executa o código em paralelo. Sua principal diferença em
relação ao Map Reduce é o fato deste persistir em disco. O Spark trabalha em
memória, faz encadeamento de funções e só apresenta o resultado no fim do
processamento. O driver, aplicação principal do Spark, faz alocação maquinas no
cluster para processamento de funções. Pode trabalhar tanto com o paradigma SQL
quanto o NOSQL. (Paiva, 2016)
MACHINE LEARNING
Machine Learning é o termo que designa o processo de ensinamento da
máquina a “entender” dados que a princípio parecem não fazer sentido, processá-los
e tirar algum valor disso. Pode-se usar machine learning, por exemplo, em redes
sociais, posts ou tuites, com expressões diferentes das formais, por exemplo: “Pato
passa em branco no jogo do tricolor”, usam-se algoritmos para que a máquina
entenda que “Pato” não é um animal e sim um jogador de futebol, “passar em
45
branco” significa não fazer gol e “tricolor” significa um time de futebol, nesse caso,
pode-se medir o nível de satisfação dos torcedores em relação ao time, ou em casos
parecidos, o nível de satisfação de clientes em relação a uma empresa, através do
que eles postam nas redes sociais. Algoritmos de machine learning auxiliam
principalmente a transformar dados que a princípio seriam não estruturados, em
dados estruturados.
Outra forma de usar machine learning é através de computação cognitiva, e
biometria. Com base no comportamento de um indivíduo em frente ao caixa
eletrônico, usa-se uma tecnologia kinect, que mapeia regiões do corpo do suspeito,
e através de algoritmos de inteligência artificial, é possível reconhecer o perfil
comportamental de um bandido ou fraudador de cartões, passando à segurança do
local essas informações, pode-se melhorar a segurança do local. (Nogare, 2014)
46
REFERÊNCIAS