Brasil Econômico

Concurso da Kaggle pode combatera vulnerabilidades da inteligência artificial
iStock
Concurso da Kaggle pode combatera vulnerabilidades da inteligência artificial

O Google Brain juntamente da plataforma de ciência dos dados, Kaggle, irá criar um “AI Fight Club”- clube de inteligência artificial que treinará sistemas de aprendizagem de máquinas para potencializar a proteção contra ataques cibernéticos.

Leia também: IBM lança sistema de criptografia que protege empresas de ataques cibernéticos

AI

Geralmente quando se fala em inteligência artificial (AI) hoje em dia, se está fazendo referência a algoritmos de aprendizado de máquinas e sistemas de aprendizagem mais complexos. Entretanto, embora a AI tenha avançado de maneira significativa, o princípio por trás de sua tecnologia permanece o mesmo: alguém treina um sistema para que possa receber dados a fim de que produza um resultado específico, fazendo com que a máquina seja responsável pelo desenvolvimento de seu próprio algoritmo.

Desse modo, a Kaggle quer desenvolver sistemas de AI para ataques cibernéticos super inteligentes, colocando AI contra AI em uma batalha denominada – “Ataques e Defesas Adversas”. A batalha organizada pelo Google Brain fará parte da edição de 2017 da Fundação Neural Information Processing Systems (NIPS).

O clube de combate a ataques cibernéticos contará com três desafios. O primeiro consiste na obtenção de algoritmos para confundir um sistema de aprendizagem de máquina para que não consiga funcionar corretamente. O segundo é direcionado, forçando um sistema a classificar os dados também de maneira incerta. Já o terceiro é uma espécie de defesa, reforçando a proteção do sistema inteligente.

"É uma ideia brilhante catalisar a pesquisa em redes neurais profundas e projetar redes neurais profundas que não podem ser enganadas", afirmou o professor assistente da Universidade de Wyoming, Jeff Clune, que estuda os limites dos sistemas de aprendizagem de máquinas, para o portal MIT Technology Review.

Você viu?

Leia também: "Quase todos os carros serão autônomos em dez anos", projeta Elon Musk

Desenvolvimento

A AI é realmente mais eficaz do que as pessoas imaginam. A medida que os sistemas de informática vão avançando, o uso de algoritmos de aprendizagem de máquinas se torna mais comum, fazendo com que a mesma tecnologia possa ser usada para fins prejudiciais.

"A segurança do computador está definitivamente em direção à aprendizagem de máquinas. Os bandidos usarão esse método para automatizar seus ataques, e usaremos a mesma técnica para defender os sistemas", ressaltou o pesquisador do Goolge Brain, Ian Goodfellow, ao  MIT Technology Review. 

O Treinamento desses sistemas para o combate de um AI malicioso foi apontado como a melhor forma de se preparar para ataques, mesmo sendo uma medida extremamente difícil de executar. "O aprendizado da máquina adversarial é mais difícil de estudar do que o aprendizado convencional de máquinas. É difícil dizer se seu ataque é forte ou se sua defesa é fraca", explicou Goodfellow.

A imprevisibilidade dessa tecnologia é uma das razões pelas quais alguns estudiosos e empresários, incluindo Elon Musk, estão preocupados, já que pode se tornar maliciosa no futuro. Com isso, sugerem que o desenvolvimento da AI seja minuciosamente monitorado e regulamentado, porém, tendo em mente de que são  as pessoas que estão por trás desses sistemas  e não os mesmos que apresentam ameaça.0

Como uma aplicação para antecipar o problema, o Instituto de Engenheiros Elétricos e Eletrônicos criou algumas diretrizes para a ética abrangente a AI, assim como os padrões desenvolvidos por parcerias.  O concurso da Kaggle pode combater a vulnerabilidades da inteligência artificial, com regulamentos futuros e com medidas que a aprimore, afastando as possibilidades de que seja usada para meios nefastos.

*Com tradução de futurism.com

Leia também: Bitcoin: especialistas dizem que é a melhor hora para investir, confira

    Mais Recentes

      Comentários

      Clique aqui e deixe seu comentário!