No ano passado, a inteligência artificial chegou com força. Devido ao surgimento de ferramentas generativas como o ChatGPT, empresas de todos os setores perceberam seu imenso potencial e começaram a colocá-lo em uso.

Sabemos que existem desafios – uma ameaça aos empregos humanos, as possíveis implicações para a segurança cibernética e roubo de dados, ou talvez até mesmo uma ameaça existencial para a humanidade como um todo. Mas certamente ainda não temos uma compreensão completa de todas as implicações. Na verdade, um relatório do Fórum Econômico Mundial afirmou recentemente que as organizações “atualmente podem subestimar os riscos relacionados à IA”, com apenas 4% dos líderes considerando o nível de risco “significativo”.

Em maio, a Samsung se tornou uma das empresas que recentemente proibiram o uso do ChatGPT após descobrir que funcionários o alimentavam com dados de documentos confidenciais. Os operadores do ChatGPT afirmam abertamente que não há garantia de privacidade quando isso acontece, pois envolve o upload de dados para a nuvem, onde podem ser acessados ​​por seus funcionários e potencialmente por qualquer outra pessoa.

Este é apenas um dos muitos exemplos que provavelmente veremos nos próximos meses de empresas fechando a porta do estábulo depois que o cavalo fugiu. A velocidade com que essa tecnologia entrou em cena, combinada com a enorme empolgação em torno de seu potencial transformador e o poder bem documentado do efeito FOMO (medo patológico de não acompanhar novidades tecnológicas) deixou muitas organizações despreparadas para o que está por vir.

Quais são os riscos?

O primeiro passo para gerenciar os riscos apresentados pela IA generativa é entender o que eles são. Para as empresas, elas podem ser amplamente segmentadas em quatro categorias:

Precisão

Um problema comum com a IA generativa nesse estágio é que nem sempre podemos confiar que seus resultados sejam precisos. Qualquer pessoa que tenha usado o ChatGPT ou ferramentas semelhantes para pesquisa ou para responder a perguntas complexas sabe que às vezes pode fornecer informações incorretas. Isso não é ajudado pelo fato de que a IA costuma ser opaca sobre suas fontes, dificultando a verificação dos fatos. Cometer erros ou agir com base em informações imprecisas pode facilmente levar a danos operacionais ou à reputação das empresas.

Ameaças à segurança

Isso pode vir na forma de ameaças internas e externas. Internamente, usuários inconscientes ou mal treinados podem expor informações corporativas confidenciais ou informações protegidas de clientes, alimentando-as em plataformas generativas baseadas em nuvem, como o ChatGPT. Externamente, a IA generativa permite que os cibercriminosos se envolvam em novas e sofisticadas formas de engenharia social e ataques de phishing. Isso incluiu o uso de IA generativa para criar mensagens de voz falsas de líderes empresariais, pedindo aos funcionários que compartilhem ou exponham informações confidenciais.

Viés

Os sistemas de IA são tão bons quanto os dados nos quais são treinados, e há uma grande preocupação com as implicações que isso tem para a criação de resultados tendenciosos. Se os dados forem coletados de maneira tendenciosa (por exemplo, super ou sub-representando as estatísticas de seções populacionais específicas), isso pode levar a resultados distorcidos que podem afetar a tomada de decisões. Um exemplo é uma ferramenta projetada para digitalizar automaticamente os currículos dos candidatos a emprego e filtrar aqueles que não são adequados. Se a ferramenta não tiver dados suficientes sobre os candidatos de um determinado segmento, isso pode significar que ela não é capaz de avaliar com precisão as candidaturas desse segmento. Isso também pode levar a resultados desfavoráveis ​​e danos à reputação se a IA for usada para responder a consultas de clientes e suporte pós-venda.

Cultura e confiança

A introdução de novas ferramentas, tecnologias e processos muitas vezes pode causar ansiedade entre os trabalhadores. Com a IA e toda a discussão sobre a substituição de humanos, isso é compreensivelmente mais intenso do que o normal. Os funcionários podem temer que os sistemas de IA tenham sido introduzidos em seus empregos para torná-los potencialmente redundantes. Isso pode levar ao desenvolvimento de apreensão, desconfiança e trabalhadores descontentes. Isso pode fazer com que eles sintam que suas próprias habilidades humanas são menos valiosas, criando toxicidade no local de trabalho e aumentando a rotatividade de funcionários. Também pode haver preocupações de que certos sistemas de IA, como os usados ​​para monitoramento do local de trabalho, tenham sido usados ​​para vigiar trabalhadores humanos ou monitorar suas atividades de maneira intrusiva.

Quão Preparadas Estão as Organizações?

Uma pesquisa realizada pelos analistas Baker McKenzie concluiu que muitos líderes C-level são excessivamente confiantes em suas avaliações de preparação organizacional em relação à IA. Em particular, expôs preocupações sobre as possíveis implicações de dados tendenciosos quando usados ​​para tomar decisões de RH.

Também propôs que seria muito sensato que as empresas pensassem em nomear um Chief AI Officer (CAIO) com a responsabilidade geral de avaliar o impacto e as oportunidades no horizonte. Até agora, as empresas demoraram a fazer isso, com apenas 41% das empresas relatando que possuem experiência em IA no nível do conselho. Na minha experiência, é incomum descobrir que as empresas têm políticas específicas em relação ao uso de ferramentas generativas de IA. Muitas vezes, eles carecem de uma estrutura para garantir que as informações geradas pela IA sejam precisas e confiáveis ​​e que a tomada de decisões da IA ​​não seja afetada por preconceitos e falta de transparência em torno dos sistemas. Outra lacuna significativa na preparação para IA em muitas organizações é que o impacto da disrupção na cultura, satisfação no trabalho e confiança também costuma ser subestimado.

Melhorando a preparação corporativa

Não há solução rápida para lidar com uma mudança social sísmica tão perturbadora quanto a IA, mas qualquer estratégia deve incluir o desenvolvimento de uma estrutura destinada a identificar e abordar as ameaças encontradas aqui. Também deve abranger ficar de olho no horizonte para novas ameaças que surgirão à medida que a tecnologia amadurecer.

Certamente, um bom começo é garantir que a expertise em IA esteja presente no nível do conselho, por exemplo, por meio da nomeação de um CAIO ou similar. Além de atenuar as ameaças, esse é um meio que pode garantir que as oportunidades sejam identificadas e exploradas. Seu trabalho deve incluir garantir que a conscientização permeie toda a organização em todos os níveis. Todo funcionário deve estar ciente dos riscos relacionados à precisão, parcialidade e segurança. Além disso, eles também devem entender como a IA provavelmente afetará sua própria função e como ela pode aumentar suas habilidades para torná-las mais eficientes e eficazes. As empresas devem se esforçar para garantir um diálogo aberto e contínuo, incluindo garantias sobre seu impacto nos empregos humanos e educação sobre as novas oportunidades que estão se abrindo para humanos qualificados em IA.

Se a IA for usada para coleta de informações ou tomada de decisões, políticas devem ser implementadas para avaliar a precisão e identificar áreas de operação que possam ser afetadas pelo viés da IA. Especialmente para aqueles que usam IA em escala, isso pode significar investir em testes rigorosos e sistemas de garantia de qualidade.

Identificar e mitigar ameaças cibernéticas de IA também se tornará cada vez mais parte das estratégias de segurança cibernética da organização. Isso pode ser tão simples quanto garantir que os funcionários estejam cientes das ameaças de ataques de phishing e engenharia social aprimorados por IA, até a implantação de sistemas de defesa cibernética baseados em IA para proteção contra tentativas de hackers com IA aumentada.

Por último, mas não menos importante, as empresas devem se esforçar para se envolver com reguladores e órgãos governamentais em discussões sobre regulamentação e legislação de IA. À medida que a tecnologia amadurece, órgãos e organizações da indústria, como sindicatos, estarão envolvidos na elaboração e implementação de códigos de prática, regulamentos e padrões. É essencial que as organizações que estão na vanguarda do uso dessa tecnologia forneçam suas informações e conhecimentos.

Ao deixar de entender e reagir a essas ameaças, qualquer indivíduo ou organização corre o risco de cair em uma das maiores ameaças representadas pela IA – deixar de explorar suas oportunidades e, ao fazê-lo, ser deixado para trás por uma visão mais avançada dos concorrentes.

Fonte: Forbes

Tags: chatcpt, fomo, IA