Adriana Saluceste* |
Antes que se pudesse desmentir, a foto do Papa Francisco usando um look branco digno de Paris Fashion Week e dos rappers mais famosos do mundo já tinha circulado pelas redes sociais e arrebatado milhões de comentários, likes e dislikes. Longe de estar desfilando trajes da última moda por aí, o Papa estava, na verdade, lidando com algumas questões de saúde que, dias mais tarde, o levariam a ser até mesmo internado. Mas, quando soubemos disso, já era tarde. Muita gente tinha compartilhado a imagem, criada com a ajuda de inteligência artificial (IA), como se fosse real.
Casos como esse ainda devem se multiplicar nas plataformas digitais ao longo dos próximos dias, meses e anos. Se, para muitas pessoas, ver o ex-presidente americano Donald Trump preso é um sonho, para o Bellingcat, coletivo de jornalismo independente, é uma “realidade”, ainda que virtual. Usando a inteligência artificial Midjourney, o coletivo criou uma imagem do magnata, usando terno e gravata, atrás das grades, sentado sobre uma cama de ferro ascética coberta apenas por um colchão que parece tudo, menos confortável. Mas, vale lembrar, o Papa é, assim como Trump foi, um chefe de estado. E os impactos da foto de um ex-presidente preso podem ir muito além das piadas nas redes sociais.
Mas, se lidar com essas ferramentas será tarefa cada vez mais comum, o que fazer para garantir que saibamos distinguir o que é real do que é resultado das IAs? Arrisco alguns palpites para contribuir com o debate já tão acalorado a respeito do tema. E começo pela área em que me sinto mais confortável: a da segurança da informação.
Diante da já gigante propagação de fake news de toda ordem - política, ideológica, moral e até cômica -, precisamos nos resguardar. Criar sistemas de segurança que nos permitam separar o joio do trigo, discernir verdades de mentiras. Isso se tornará mais difícil à medida que as ferramentas de IA se tornarem mais precisas e especializadas, o que está acontecendo neste exato momento, enquanto escrevo estas linhas. E, se hoje as informações e imagens geradas por elas já se assemelham tanto à realidade, o potencial destrutivo dessa evolução é incalculável.
É fundamental lembrar que as máquinas não possuem julgamento moral. Elas entregam como resultado aquilo que for solicitado, independentemente de ser legal, justo ou mesmo honesto. E quem as programa inicialmente somos nós, seres humanos. Criaturas que, infelizmente, ainda estão longe da perfeição moral e ética e que tendem a agir de acordo com seus próprios interesses. O ser humano é o que é - e tem uma tendência a se desviar em determinados momentos.
Por isso, é indispensável que haja diretrizes que criem uma segurança real para o uso dessas tecnologias, além de leis que as regulamentem. No Brasil, já existe o projeto de lei do Marco Legal da Inteligência Artificial, criado em 2020, mas ainda não aprovado pelo Congresso Nacional.
Uma carta assinada por nomes como Elon Musk (Twitter, Tesla e SpaceX), Evan Sharp (Pinterest) e Steve Wozniak (Appel) pede que o desenvolvimento de inteligências artificiais seja pausado por seis meses, até que se possa discutir que tipo de desafios elas podem trazer à sociedade e à vida humana. Mas, mais do que paralisar esse tipo de tecnologia, o que falta é discutirmos maneiras responsáveis e mecanismos de defesa contra o grande poder dessas plataformas.
Afinal, a ideia central de qualquer desenvolvimento tecnológico é ajudar a melhorar a vida humana, e não criar ainda mais dificuldades em um mundo já tão complexo e cheio de problemas.
*Adriana Saluceste é especialista em Segurança da Informação e diretora de Tecnologia & Operações da Tecnobank.
0 Comentários