Nos últimos meses um dos assuntos mais comentados nas redes é a Inteligência Artificial (IA) ChatGPT, um chatbot online lançado no final do ano de 2022, mas que alcançou um grande espaço em 2023, e que funciona a partir de um banco de dados alimentado por um sistema próprio. Entre os prós e os contras, essa IA tem ganhado espaço na sociedade digital a partir da sua aplicação e utilização nas mais diversas áreas do conhecimento: do mundo das artes à educação, da produção, correção e tradução de textos até a sua presença no cotidiano do mundo corporativo.
Nas organizações, o ChatGPT ganha seu espaço como um copiloto de atividades, “simplificando” uma série de processos que antes eram realizados de forma manual e que demandavam um grande investimento de tempo e dedicação. A partir do uso da IA, diversos comandos puderam ser feitos sem a necessidade de demandar tanto esforço de tempo. Ou seja, no ambiente corporativo este processo soa como “mágica”, “milagre”, um enorme benefício. Porém, existe um limite invisível que devemos investigar.
O banco de dados que alimenta o revolucionário chatbot se consolida sob o suporte de milhares de usuários da internet e conteúdos indexados em websites e portais, com o objetivo de gerar, de forma diferenciada, cada vez mais conteúdo original. O que nos direciona a pensar de onde vem toda essa informação e de que forma podemos garantir segurança e autoridade sem interferir em direitos autorias ou outras problemáticas. Neste cenário, é comum passar a entender esta nova tecnologia como uma “terra sem lei”, ou seja, tanto as pessoas/empresas estão aprendendo a utilizá-la, como fazer este uso de forma segura e confiável.
Daí, surge a inquietação: como as empresas podem regulamentar o uso do ChatGPT e evitar que dados e informações sejam vazados, ainda que indiretamente, por essa inteligência artificial?
O projeto de regulamentação das tecnologias de Inteligência Artificial, especialmente diante das evoluções do ChatGPT, vem ganhando destaque no debate daqueles que se impressionam com a capacidade dessas tecnologias de gerar conteúdo e estabelecer conversas lógicas e ágeis – configurando um simulacro da linguagem humana –, bem como dos que se preocupam no que diz respeito à substituição de muitos profissionais pelos computadores.
De acordo com uma matéria da Revista VOCÊ S/A1, junho de 2023, projetos tramitam na União Europeia, Estados Unidos e Brasil para que se tenha uma “domesticação” dessas tecnologias. Estes projetos visam discutir a preocupação a partir de temas como a privacidade, direitos autorais, discriminação, fake news e da eventual substituição de profissionais de carne e osso pela ferramenta digital.
Acerca da sua presença e usabilidade nas corporações e sua relação com a cibersegurança, o ChatGPT também precisa ser ponderado. Pois, a presença de algumas ferramentas de IA – seja com versões gratuitas e/ou pagas – podem ser manuseadas por cibercriminosos, que facilmente conseguiriam redigir textos, aprimorando as suas tentativas de fraudes e golpes bancários enviados por mensagens, e-mail ou mesmo aplicativos. Ou seja, um cenário que já observamos ocorrer pode ser criminalmente ampliado. Com isso, as organizações se transformam em alvos de exploração por parte de pessoas mal-intencionadas, que conseguem sucesso em invasões por meio de perguntas a clientes ou por outros meios.
Outro risco é o de vazamento de dados. De acordo com informações do Relatório do Cenário de Ameaças, realizado pela Tenable em 2022, mais de 112 terabytes de dados foram expostos apenas no Brasil, representando 43% dos 257 terabytes registrados em todo o mundo. Assim, grandes empresas do varejo nacional não escaparam de tentativas de golpes, invasões e ciberataques.
Voltando para o cenário das Big Techs, o que se observa é uma “corrida pelo ouro”, onde cada empresa armazena uma enorme quantidade de recursos para lançar a sua própria versão do ChatGPT que seja ainda mais segura tanto para o usuário comum quanto para corporações e empresas que querem implementar essa tecnologia em seus fluxos diários.
Neste cenário, a Microsoft, vem se destacando ao aderir essa tecnologia a maioria dos seus produtos e serviços, principalmente no Office 365.
Como é chamado, o projeto Microsoft Copilot 365 (que ainda será lançado no mercado), buscará contribuir para que as empresas possam ter mais domínio sobre a IA aplicada ao mundo corporativo. Como ferramenta de produtividade, o Copilot se integra aos apps nativos da Microsoft, como Outlook, Teams, Excel, Word e PowerPoint, a fim de facilitar fluxos, se apresentando como um assistente pessoal que gera e-mails, apresentações, textos e muito mais. A tecnologia funcionará como um ChatGPT integrado aos aplicativos do Microsoft 365, no qual as informações serão alimentadas por um banco de dados restrito a cada empresa, se adaptando ao tom de voz, vocabulário e referências do negócio.
De acordo com Satya Nadella, presidente e CEO da Microsoft, em anúncio: “Com o nosso novo copiloto para o trabalho, estamos oferecendo mais autonomia para as pessoas e tornamos a tecnologia mais acessível através de uma interface universal: a linguagem natural”. Contudo, como ainda não está em funcionamento, é necessário pensar numa alternativa que seja efetiva com o que trabalhamos hoje, caberá a cada corporação estabelecer o seu modus operandi. Este é o desafio que as empresas têm pela frente.
A necessidade desta regulamentação foi reconhecida pelo criador da tecnologia, Sam Altman, CEO da OpenAI. Ele reconheceu a necessidade de alguma regulação e propôs que apenas empresas licenciadas pelo governo possam se aventurar nesse mercado.
Neste sentido, para avaliar a situação envolvendo discussões relacionadas à regulamentação do ChatGPT, faz-se necessário abordar quanto à regulamentação da Inteligência Artificial em si, tendo em vista que o foco deste projeto deverá ser na área de estudo e não em cada ferramenta, modelo de linguagem ou eventual nova tecnologia. Pois, as preocupações cercam a possibilidade do desenvolvimento das IAs e seus impactos no mercado e na sociedade.
Entendemos que se a regulamentação se limitar a um modelo de linguagem ou a uma ferramenta específica, poderemos demandar tempo, energia e esforços demais para algo que, quando for regulamentado, poderá já ser aprovado de forma desatualizada e sem atender às expectativas e anseios da sociedade.
Portanto, se falarmos tão somente da regulamentação quanto ao ChatGPT, podemos tendenciosamente, e de forma precipitada, excluir outras versões, ferramentas e tecnologias que estão ainda para serem desenvolvidas, relacionadas à IAs, além de outras versões e nomenclaturas que podem ser utilizadas no futuro, para a referência às tecnologias análogas.
É importante perceber que a tecnologia não atua de forma autônoma e não é uma vilã. Para operar da forma como opera, ela precisa de esforço humano, de inteligência aplicada e consumidores críticos de diversos setores que entendam seu funcionamento e ajudem a construir um ambiente em que sua utilização seja clara, transparente, regulamentada e segura.
Estamos diante de um cenário de evolução e as empresas precisam começar a agir quanto às novas tecnologias. Aquelas que ainda não entraram no movimento, precisam se atualizar, já aquelas que já adotam as inteligências artificias, precisam com urgência criar formas e estratégias de se manter segura. Informação é poder e, nesta corrida, vence aquele que melhor geri-la.