Artwork

Innhold levert av TEC INSTITUTE. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av TEC INSTITUTE eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.
Player FM - Podcast-app
Gå frakoblet med Player FM -appen!

Precisamos repensar os mecanismos de segurança da IA

31:39
 
Del
 

Manage episode 443247095 series 2868855
Innhold levert av TEC INSTITUTE. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av TEC INSTITUTE eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.

Quais são as medidas necessárias para mitigar os efeitos nocivos do uso da Inteligência Artificial em diversas aplicações?

O debate sobre o uso dessa tecnologia já é antigo, com vários casos ao longo dos anos evidenciando como a falta de controle e transparência na coleta e aplicação de dados pode gerar problemas significativos.

Diversos reguladores ao redor do mundo discutem alternativas para proteger a sociedade de um uso irresponsável. Algumas empresas já implementam protocolos e processos internos para lidar com esses riscos, mas o assunto é complexo e inclui até casos como o desmembramento da OpenAI.

Uma abordagem interessante para lidar com os riscos é a criação de um "sandbox", uma prática já usada no setor financeiro em diversos países, incluindo o Brasil. Nesse modelo, novas tecnologias são testadas em um ambiente confinado, onde é possível validar sua segurança e garantir que os prejuízos sejam mínimos ou inexistentes antes de serem amplamente implementadas.

Neste episódio do podcast MIT Technology Review Brasil, Carlos Aros e Rafael Coimbra discutem o assunto.

Este podcast é um oferecimento do SAS.

  continue reading

573 episoder

Artwork
iconDel
 
Manage episode 443247095 series 2868855
Innhold levert av TEC INSTITUTE. Alt podcastinnhold, inkludert episoder, grafikk og podcastbeskrivelser, lastes opp og leveres direkte av TEC INSTITUTE eller deres podcastplattformpartner. Hvis du tror at noen bruker det opphavsrettsbeskyttede verket ditt uten din tillatelse, kan du følge prosessen skissert her https://no.player.fm/legal.

Quais são as medidas necessárias para mitigar os efeitos nocivos do uso da Inteligência Artificial em diversas aplicações?

O debate sobre o uso dessa tecnologia já é antigo, com vários casos ao longo dos anos evidenciando como a falta de controle e transparência na coleta e aplicação de dados pode gerar problemas significativos.

Diversos reguladores ao redor do mundo discutem alternativas para proteger a sociedade de um uso irresponsável. Algumas empresas já implementam protocolos e processos internos para lidar com esses riscos, mas o assunto é complexo e inclui até casos como o desmembramento da OpenAI.

Uma abordagem interessante para lidar com os riscos é a criação de um "sandbox", uma prática já usada no setor financeiro em diversos países, incluindo o Brasil. Nesse modelo, novas tecnologias são testadas em um ambiente confinado, onde é possível validar sua segurança e garantir que os prejuízos sejam mínimos ou inexistentes antes de serem amplamente implementadas.

Neste episódio do podcast MIT Technology Review Brasil, Carlos Aros e Rafael Coimbra discutem o assunto.

Este podcast é um oferecimento do SAS.

  continue reading

573 episoder

Alle episoder

×
 
Loading …

Velkommen til Player FM!

Player FM scanner netter for høykvalitets podcaster som du kan nyte nå. Det er den beste podcastappen og fungerer på Android, iPhone og internett. Registrer deg for å synkronisere abonnement på flere enheter.

 

Hurtigreferanseguide

Copyright 2025 | Sitemap | Personvern | Vilkår for bruk | | opphavsrett
Lytt til dette showet mens du utforsker
Spill