Entrevistas

“Empresas têm de preparar-se para as tecnologias do mundo irreal” – Vanda Gonçalves

Sistemas como o Unreal Engine permitem criar experiências 3D imersivas e realistas que podem mudar a forma como trabalhamos, fazemos compras e vivemos, afirma Vanda Gonçalves, da Accenture.

Vanda Gonçalves, Managing Director, responsável pela área de Cloud da Accenture em Portugal, afirma em entrevista ao ECO que a fronteira que separa o que é real e o que não é está cada vez mais esbatida. “Sistemas como o Unreal Engine permitem criar experiências 3D imersivas e realistas que podem mudar a forma como trabalhamos, fazemos compras e vivemos“. Num mundo em acelerada transformação, Vanda Gonçalves afirma que “as empresas deverão estar preparadas para tirar vantagem máxima das tecnologias do mundo irreal e para isso é fundamental que explorem o uso de dados sintéticos“.

 

Que papel vão ter no futuro os sistemas como o Unreal Engine, criado pela Epic Games, que também serve de base ao popular videojogo Fortnite, à luz desta tendência de tornar mais real o que é tecnologicamente sintético?

Estamos claramente a entrar numa era em que é possível criar e utilizar dados sintéticos de forma incrivelmente realista e a fronteira entre o que é real e o que não é esbatesse-se cada vez mais. Sistemas como o Unreal Engine permitem criar experiências 3D imersivas e realistas que podem mudar a forma como trabalhamos, fazemos compras e vivemos. Estas capacidades extraordinárias têm vindo a ser adotadas fora do contexto dos videojogos, nomeadamente em indústrias como a automóvel, onde alguns dos principais fabricantes estão a desenvolver experiências ao nível do desenvolvimento de veículos e ferramentas de marketing e vendas, transformando totalmente a experiência do cliente, tornando-a imersiva e extremamente personalizada.

Estas tecnologias têm um enorme poder que advém da democratização da sua utilização, que permite que cada pessoa utilize e contribua, e serão cada vez mais os casos de uso nas diferentes indústrias, nomeadamente ao nível da experiência, quer seja de clientes, quer de colaboradores.

A internet dos dias de hoje está repleta de riscos para a segurança dos utilizadores. Surgem no universo virtual das redes sociais, por exemplo, mas têm consequências bem reais, como mostrou a invasão do Capitólio nos EUA. Quais vão ser os principais riscos de segurança no futuro, à medida que o sintético se vai fundindo com o real? E como é que podem ser mitigados?

O uso malicioso do irreal tem-se tornado decididamente lucrativo para os maus atores e como tal, as agências de desinformação-as-a-service chegaram e têm prosperado. Não só criam e espalham desinformação – que é relativamente barata e em relação à qual é difícil adoptar qualquer tipo de proteção – mas também permitem, àqueles que pagam por isso, que se distanciem e neguem responsabilidade. E isto configura um risco, pois as notícias falsas online tendem a difundir-se mais rápido e mais longe do que a verdade – deixando a verdade muito mais em risco e podendo ter consequências reais.

É um facto que a utilização de Inteligência Artificial nos bots de social media pode amplificar histórias, como é demonstrado num estudo da Brown University que descobriu que, em média por dia, 25% dos tweets sobre uma crise climática foram de bots e que os bots representaram 38% dos tweets sobre ciência falsa. Uma outra investigação do Center for Informed Democracy and Social-Cybersecurity da Universidade Carnegie Mellon também identificou que os bots podem representar 45% a 60% das contas do twitter a discutir COVID-19. Equipada com as mais recentes capacidades de geradoras IA, e suportada nos algoritmos das redes sociais que prioritizam relações, percebe-se o quanto mais prejudicial a desinformação se pode tornar, explicitado por 99% dos executivos que revelam preocupação com deepfakes e/ou ataques de desinformação.

Acima de tudo, é necessário garantir a autenticidade e proteger as organizações e os clientes do uso malicioso do irreal e isso passa por identificar aplicações maliciosas emergentes de tecnologias do mundo irreal antes que se tornem um risco sistémico, ou seja, focar na veracidade e proveniência das informações que chegam à organização, como possíveis fraudes ou desinformação, e fora da organização, para garantir que falsidades não intencionais não são perpetuadas.

Será também necessário fazer um balanço das políticas a que o negócio deve aderir em relação à IA, diferenciar o uso de tecnologias do mundo irreal dos agentes de ameaças e construir confiança com os clientes, ao ter e comunicar um propósito claro e dar às pessoas a capacidade de atestar a genuinidade da empresa e dos seus resultados. Do ponto de vista das pessoas, o negócio deve estar preparado organizacionalmente para lidar com os desafios que surgem com o uso da IA e ter estruturas de governação implementadas é imperativo para lidar com os riscos inerentes ao mundo irreal.

Por fim, é fundamental ter um plano de como a organização responderá ao uso malicioso de deepfakes ou campanhas de desinformação contra a marca, explorando cenários de ameaças mais prejudiciais e criando o manual para responder aos eventos… e continuamente formar e praticar essa resposta.

É necessário garantir a autenticidade e proteger as organizações e os clientes do uso malicioso do irreal e isso passa por identificar aplicações maliciosas emergentes de tecnologias do mundo irreal antes que se tornem um risco sistémico, ou seja, focar na veracidade e proveniência das informações que chegam à organização, como possíveis fraudes ou desinformação, e fora da organização, para garantir que falsidades não intencionais não são perpetuadas.

O relatório da Accenture reconhece que algumas aplicações da tecnologia “vão ser controversas”, sobretudo no campo da inteligência artificial. A que se refere em concreto? E essa controvérsia é justificada?

Implementar de forma autêntica, a realidade sintética pode elevar a Inteligência Artificial (IA) a novos patamares, na medida em que, ao resolver questões de enviesamento e privacidade de dados pode melhorar substancialmente os modelos de IA em termos de equidade e inovação. O conteúdo sintético permitirá, sem dúvida, melhores experiências com IA, poupando tempo e energia e possibilitando novas interações. No entanto, usar estas tecnologias aumenta também o risco para as organizações, dado que, levanta questões difíceis sobre como alavancar a IA geradora numa forma autêntica para os clientes, parceiros, e para a marca – num contexto de maus atores que utilizam as mesmas tecnologias para criar falsificações e desinformação que minam a confiança.

Um inquérito da Accenture em 2019 concluiu que 84% dos executivos da C-suite acreditam que precisam alavancar a IA para atingir os seus objetivos de crescimento, e 75% afirmaram que se não escalarem a IA nos próximos cinco anos arriscam-se a sair completamente do negócio. Claramente, a IA vai ser intrínseca ao futuro dos negócios se não o for já e a Gartner prevê que em 2030, a maioria dos dados em modelos de IA serão sintéticos. E isto tem grandes implicações para as organizações. A IA era habitualmente um diferenciador competitivo, e agora é uma necessidade do negócio tirar valor dos dados – para melhorar os processos de negócio, melhorar a experiência do cliente, e em última análise, impulsionar melhores resultados. Há que preparar o negócio porque o mundo irreal está prestes a tornar-se uma parte da realidade. À medida que a IA progride e os modelos melhoram, as empresas estão a construir o mundo irreal. Provavelmente, aterraremos em algum lugar intermédio, em que os dados sintéticos melhoram o mundo mas também abrem a porta a ataques maliciosos, e é por isso que elevar a autenticidade dentro da organização é tão importante.

Que tipo de aplicações práticas e concretas pode ter o “conteúdo sintético” que a Accenture descreve no relatório no mundo dos negócios?

Os dados sintéticos estão a ser usados para treinar modelos de IA de formas que os dados do mundo real praticamente não podem ou não devem fazer. Estes dados realistas, apesar de irreais, podem ser partilhados, mantendo as mesmas propriedades estatísticas enquanto protegem a confidencialidade e privacidade, e também pode ser feito para aumentar a diversidade e contrariar o enviesamento, e assim superar as armadilhas dos dados do mundo real.

Por exemplo, nos primeiros dias da pandemia, o maior hospital de Israel usou uma plataforma criada pela startup israelita MDClone para criar dados sintéticos de pacientes COVID-19, que podiam então ser partilhados com investigadores académicos e com outras organizações. Isto permitiu-lhes inovar mais rápido e de formas que nunca poderiam sozinhos, para criar um algoritmo que ajudasse os clínicos a determinar quando os pacientes deviam ser tratados com medicamentos ou enviados para a UCI. A American Express, por exemplo, também usa dados sintéticos para melhorar a sua deteção de fraudes, incluindo cada vez mais, e mais únicos casos de fraude, e até mais do que os que normalmente ocorrem, para aumentar o seu algoritmo. E sobretudo, é uma empresa que enfrenta o enviesamento promovendo a equidade nos dados sintéticos.

A Walmart, por seu lado, está a infundir IA na previsão da procura, gestão do inventário e otimização da cadeia de abastecimento de uma forma holística para entender melhor a imagem completa do negócio. Melhorou o tempo de processamento dos dados em 23%, e pode agora fechar os resultados financeiros em apenas três dias.

Por outro lado, os dados sintéticos estão também a ser tornados mais realistas por forma a serem mais humanos na criação e interação e por isso, com a democratização da IA, esta torna-se, por definição, mais humana e mais fácil para qualquer um usar e interagir, poupando tempo e esforço e permitindo experiências novas e únicas.

No dia-a-dia, os chatbots e os assistentes virtuais são cada vez mais comuns e convenientes e as novas tecnologias podem torná-los mais realistas do que nunca. A Hour One, por exemplo, cria personagens digitais, baseados em parecenças com pessoas reais, que podem ser mostradas a dizer qualquer texto em vídeos altamente realistas (e cada ser humano recebe um micropagamento quando a sua personagem é usada, sendo o seu uso é limitado a conteúdo seguro). Estas personagens podem então representar agentes imobiliários virtuais ou professores de línguas, por exemplo, convertendo facilmente conteúdo de texto estático em vídeo, poupando horas de atores e equipas de produção em estúdio. Cada vídeo tem que referir explicitamente que o conteúdo foi gerado por computador, e tem que incorporar uma marca de água “Altered Visuals”.

Outro exemplo de aplicabilidade de conteúdos sintéticos no mundo dos negócios é o da Soul Machines que criou pessoas sintéticas que podem ser usadas em casos em que os clientes podem temer julgamento dos outros e, na verdade, preferem falar com pessoas digitais. Yumi é um “influenciador digital de animação autónoma” que responde às perguntas dos clientes sobre a sua pele para a marca de cuidados de pele da P&G SK-II. O realismo da Yumi pode permitir uma interação mais perfeita e pessoal enquanto simultaneamente, a sua essência digital coloca os clientes em maior conforto. Aqui, o propósito de usar uma pessoa sintética é claro em várias frentes, e como tal, é convincentemente autêntica.

As empresas deverão estar preparadas para tirar vantagem máxima das tecnologias do mundo irreal e para isso é fundamental que explorem o uso de dados sintéticos, ou seja, determinem como as suas vantagens poderiam melhorar as estratégias de dados existentes e os algoritmos de IA por estes alimentados e como melhorar a qualidade dos dados, reduzir o risco de privacidade e corrigir o enviesamento presente em dados históricos.

Que setores poderão ser os líderes desta transformação? E como é que as empresas portuguesas devem preparar-se para este movimento “sintético e autêntico”? O tema Pessoas é mais relevante do que o capital?

Esta transformação está já em curso e irá assumir ritmos e intensidades diferentes mas será inevitável. As empresas deverão estar preparadas para tirar vantagem máxima das tecnologias do mundo irreal e para isso é fundamental que explorem o uso de dados sintéticos, ou seja, determinem como as suas vantagens poderiam melhorar as estratégias de dados existentes e os algoritmos de IA por estes alimentados e como melhorar a qualidade dos dados, reduzir o risco de privacidade e corrigir o enviesamento presente em dados históricos. É igualmente crucial identificar onde é que o conteúdo irreal, como chatbots ou imagens geradas por IA, vídeo ou conteúdo, pode ajudar a estender a marca e/ou criar interações com os clientes, sendo muito importante encontrar forma de criar novos caminhos de conexão com os clientes, melhorar a qualidade das suas experiências e gerar novos resultados. Por fim, há que estar o uso de tecnologias irreais para fazer crescer a organização. Habilitar colaboradores para alavancá-los como parceiros, aprimorando o design, a simulação, ou capacidade de tomada de decisão.

A Accenture dá grande importância à “autenticidade” quando descreve esta tendência tecnológica. É possível ter certezas no mundo atual quando já é possível criar vídeos extremamente realistas de um Presidente a dizer o que não disse com recurso à inteligência artificial?

Num mundo com realidade sintética em forte crescimento, onde os dados gerados por Inteligência Artificial (IA) refletem de forma convincente o mundo físico, somos forçados a enfrentar as questões do que é real e o que é certo que cerca de 65% dos consumidores globais assume ter pouca (ou nenhuma) confiança no reconhecimento ou identificação de vídeos falsos ou conteúdo sintético e apenas 7% se sente muito confiante no reconhecimento. Não obstante estarmos a usar dados sintéticos de forma a melhorar o mundo, há sempre o risco de sermos vítima de atores maliciosos e por isso, a autenticidade é, na nossa opinião, a bússola e a estrutura que vai guiar as empresas no uso da IA de uma forma genuína, nas várias indústrias, nos casos de uso, e no tempo, considerando a proveniência, a política, as pessoas, e o propósito. Em última análise, vai desbloquear novas atitudes para com a IA, libertando os benefícios do mundo irreal. Observando estes quatro princípios, as empresas podem ganhar confiança não só nas suas decisões de confiar outros, mas também no seu uso de IA, de tal forma que os outros podem confiar neles, permitindo assim plena participação e sucesso no mundo irreal.

Cerca de 96% dos executivos globais concordam que as suas organizações estão comprometidas para autenticar a origem dos seus dados e no uso genuíno da IA e isso é bom sinal. É necessário e fundamental garantir a autenticidade e proteger as organizações e os clientes do uso malicioso do irreal e ter os executivo globais alinhados com essa preocupação é um passo importante nesta jornada.

Fonte: ECO

Mostrar Mais

Related Articles

Back to top button
Close
Close