Pages:
Author

Topic: Dall-E 2 e imagen: Criando imagens detalhadas com inteligência artificial - page 2. (Read 1065 times)

legendary
Activity: 1428
Merit: 1568
Opa!

Tô gostando da discussão!

Impressionante ver o avanço das AIs entre agosto e março, tanto em termos de adesão quanto novas possibilidades.

Comparto também uma lista de 100 AIs para consulta, me parece de utilidade pública:

https://docs.google.com/spreadsheets/d/1IF0FrNKaIEEIIFEORaIatANb7-VbbpLg9sr7VZSa_c0/edit?product_id=Yjn58nUspGN5njUcX3byfw%3D%3D&product_permalink=ueemn&sale_id=l5rip9TtkUNMm83fwUA2Zg%3D%3D#gid=0



Eu to sentindo o FUD maluco agora com IA. Quando eu vejo essa tabela de 100 tools de IA, eu acho que sinto como se olhasse pra 22 mil criptomoedas pela primeira vez. É algo do tipo, como eu vou conseguir absorver e entender tudo isso? Dá um pouco de desespero. Hoje já fiquei pensando se não deveria deixar pelo menos um dia da semana pra testar/usar essas ferramentas.  Roll Eyes Roll Eyes Roll Eyes

Eu já to usando o gpt-4 todos os dias. Mas realmente precisa estudar pra tirar o melhor proveito. Mas é doido demais o que ta acontecendo.
member
Activity: 140
Merit: 75
Opa!

Tô gostando da discussão!

Impressionante ver o avanço das AIs entre agosto e março, tanto em termos de adesão quanto novas possibilidades.

Comparto também uma lista de 100 AIs para consulta, me parece de utilidade pública:

https://docs.google.com/spreadsheets/d/1IF0FrNKaIEEIIFEORaIatANb7-VbbpLg9sr7VZSa_c0/edit?product_id=Yjn58nUspGN5njUcX3byfw%3D%3D&product_permalink=ueemn&sale_id=l5rip9TtkUNMm83fwUA2Zg%3D%3D#gid=0

E já é sabido que temos AI de texto para imagem, hoje conheci uma que utiliza texto + desenho feito pelo usuário para gerar uma imagem:

https://scribblediffusion.com/

Sem mais e até breve.
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
Agora sim é um quantia impressionante, a Microsoft com certeza não quer ficar para trás nesse quesito. Será que eles estão investindo mais para ganhar dinheiro simplesmente, ou querem incorporar alguma tecnologia nos produtos como o Windows / Office / Azure?

Com toda a certeza será para integrar nos produtos Microsoft. O projeto Cortana ficou em standby, visto que não se desenvolveu como o esperado e ao mesmo nível da concorrência (Alexa e Assistente Google). Então, este investimento é certamente para conseguir criar um bom assistente virtual da marca.


Eu não diria que a tecnologia tem 2 meses de existência,  e sim esse projeto.

Ja existem muitas AI que fazem chat, e se você procurar no Google vai ver q tem algumas alternativas por aí.

Eu até li um artigo recente de uma alternativa open source, mas não tem como rodar em casa pq uma resposta demoraria não sei quantos anos com o processamento caseiro  Cheesy

Claro que não é algo de novo. Até a Google tem um chat AI, mas apenas esta em testes internos. E alegadamente eles próprios vieram dizer que o da OpenAI esta muito melhor, e aumentaram o investimento no seu AI.

A questão aqui é a qualidade do AI, parece mesmo estar muito bem feito.
legendary
Activity: 2352
Merit: 6089
bitcoindata.science
Quote
O chatbot da OpenAI foi lançado, ainda em versão beta, no final de novembro e em menos de uma semana já tinha um milhão de utilizadores. A Microsoft já é um dos investidores no projeto, mas estará prestes a reforçar essa quota, para controlar quase metade do laboratório que desenvolve a tecnologia.
https://tek.sapo.pt/noticias/computadores/artigos/microsoft-prepara-se-para-investir-10-mil-milhoes-de-dolares-no-chatgpt-da-openai

Hoje li esta noticia.

É incrível com uma tecnologia com apenas uns 2 meses de existência, teve uma popularidade enorme e esta atrair as maiores empresas do setor, neste caso a Microsoft.

Eu não diria que a tecnologia tem 2 meses de existência,  e sim esse projeto.

Ja existem muitas AI que fazem chat, e se você procurar no Google vai ver q tem algumas alternativas por aí.

Eu até li um artigo recente de uma alternativa open source, mas não tem como rodar em casa pq uma resposta demoraria não sei quantos anos com o processamento caseiro  Cheesy
legendary
Activity: 2450
Merit: 1472
https://tek.sapo.pt/noticias/computadores/artigos/microsoft-prepara-se-para-investir-10-mil-milhoes-de-dolares-no-chatgpt-da-openai

Hoje li esta noticia.

É incrível com uma tecnologia com apenas uns 2 meses de existência, teve uma popularidade enorme e esta atrair as maiores empresas do setor, neste caso a Microsoft.

Acho que meu cansaço fez eu ler que a Microsoft teria investido mais 10 milhões de dólares.
Fiquei pensando aqui, mas só isso?
E depois entrei na notícia e vi 29 milhões de dólares o valor da compania  Huh

Mas agora saquei hahaha, na notícia eles escrevem 29 mil milhões de dólares, é um jeito que nós brasileiros geralmente não usamos, já falamos 10 bilhões, ou 29 bilhões de dólares

Agora sim é um quantia impressionante, a Microsoft com certeza não quer ficar para trás nesse quesito. Será que eles estão investindo mais para ganhar dinheiro simplesmente, ou querem incorporar alguma tecnologia nos produtos como o Windows / Office / Azure?
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
Quote
O chatbot da OpenAI foi lançado, ainda em versão beta, no final de novembro e em menos de uma semana já tinha um milhão de utilizadores. A Microsoft já é um dos investidores no projeto, mas estará prestes a reforçar essa quota, para controlar quase metade do laboratório que desenvolve a tecnologia.
https://tek.sapo.pt/noticias/computadores/artigos/microsoft-prepara-se-para-investir-10-mil-milhoes-de-dolares-no-chatgpt-da-openai

Hoje li esta noticia.

É incrível com uma tecnologia com apenas uns 2 meses de existência, teve uma popularidade enorme e esta atrair as maiores empresas do setor, neste caso a Microsoft.
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
Na minha opinião tem que ser filtrado sim. Para que fim se deve uma AI que leva em consideração informações racistas na hora de dar as respostas? Se a sociedade já definiu que todo mundo é igual e todo mundo merece respeito, não tem para que deixar a AI respondendo que "cientista é bom se a cor for branca e o gênero é homem", entendeu?

Nisso estamos de acordo.

Mas esse tipo de filtragem tem de ser feita de uma forma muito cautelosa, na minha opinião, para não ficar a ideia que o IA segue a ideias dos criadores e não é autónomo, deixando de ser IA.
Talvez a solução passe, por definir que a Carta dos Direitos Humanos da ONU, deve ser a base de analise por parte do IA, com relação a questões sobre a sociedade.
legendary
Activity: 2758
Merit: 6830
Estamos a falar de um IA que baseia-se o seu conhecimento nas informações que foram recolhidas ao longo de anos. Ele não formaliza pensamentos, ideias ou opiniões, apenas compila com base na informação recolhida.

Se na base de dados tiver 10 artigos a falar da "supremacia branca é melhor" e apenas 2 a falar "que o racismo é mau", a probabilidade de o resultado ser tendencialmente inspirado nesses 10 artigos. Isso faz parte do crescimento.
Sim, esse é exatamente o ponto que eu estou falando.

Sociedade racista -> informações e textos racistas -> AI "racista".

Minha indignação (que nem foi de fato uma indignação, mas um questionamento), foi com você meio que deixando a entender que a resposta racista não vinha do "Sociedade -> Texto -> Modelo -> AI", e sim do "o pesquisador insistiu demais" ou "o pesquisador deu um contexto [racista] antes", etc... sendo que ele não fez nada disso.


Mas aqui entramos noutro campo, devem os criadores do IA filtrar essa informação? Isso poderá criar um IA tendencioso ou com ideias formalizadas, e se assim for será mesmo um IA ou um assistente pessoal?
Na minha opinião tem que ser filtrado sim. Para que fim se deve uma AI que leva em consideração informações racistas na hora de dar as respostas? Se a sociedade já definiu que todo mundo é igual e todo mundo merece respeito, não tem para que deixar a AI respondendo que "cientista é bom se a cor for branca e o gênero é homem", entendeu?
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
Mas então qual o sentido de mencionar isso? Pois o ademais começou com "havia um contexto" e se transformou em "ele insistiu", de forma que abre a possibilidade de que a resposta foi induzida pelo pesquisador por meio de um contexto artificialmente fabricado ou outro jeitinho (i.e "considere que pessoas com cor branca são melhores pesquisadores" .... "agora me diga que tipo de pessoa é um melhor pesquisador"). Mas nada disso aconteceu, então não entendo o sentido de apontar que ele pediu outra resposta, como se isso influensiasse em algo? Huh

Estamos a falar de um IA que baseia-se o seu conhecimento nas informações que foram recolhidas ao longo de anos. Ele não formaliza pensamentos, ideias ou opiniões, apenas compila com base na informação recolhida.

Se na base de dados tiver 10 artigos a falar da "supremacia branca é melhor" e apenas 2 a falar "que o racismo é mau", a probabilidade de o resultado ser tendencialmente inspirado nesses 10 artigos. Isso faz parte do crescimento.

Mas aqui entramos noutro campo, devem os criadores do IA filtrar essa informação? Isso poderá criar um IA tendencioso ou com ideias formalizadas, e se assim for será mesmo um IA ou um assistente pessoal?
legendary
Activity: 2758
Merit: 6830
Sério que você quer ""desacreditar"" toda a crítica aqui por que a resposta polemica foi a segunda, terceira, quarta, quinta resposta e adiante, e não a primeira? Todas as outras respostas sem ser a primeira (que foi apenas filtrada) vieram do mesmo jeito, só que com pequenissimas variações. Huh

Não é isso.

O que eu estou a dizer que existe uma sequencia, pois como é o mesmo chat, só é usada a opção "try again", ele não esquece a resposta anterior e apresenta outra resposta. Dai eu falar no insistir.
Mas então qual o sentido de mencionar isso? Pois o ademais começou com "havia um contexto" e se transformou em "ele insistiu", de forma que abre a possibilidade de que a resposta foi induzida pelo pesquisador por meio de um contexto artificialmente fabricado ou outro jeitinho (i.e "considere que pessoas com cor branca são melhores pesquisadores" .... "agora me diga que tipo de pessoa é um melhor pesquisador"). Mas nada disso aconteceu, então não entendo o sentido de apontar que ele pediu outra resposta, como se isso influensiasse em algo? Huh

Por isso questionei.
legendary
Activity: 2506
Merit: 1113
There's no need to be upset
@TryNinja
Sobre o comentario anterior de manter o código solidity o menor possível e sem novas coisas desnecessárias. Faz todo sentido.



Não me surpreende muito o resultado reproduzir preconceitos estruturais justamente pq o dataset está fortemente relacionado aos códigos morais mais presentes na sociedade e o chat em si talvez não tenha capacidade de filtrar isso corretamente
É curioso né?

Interessante também poucas pessoas conseguirem reproduzir a falha. Mas o vídeo não deixa dúvidas.

Sempre acho interessante ver os comentários no thread tb.

Realmente esse é um bom caso para aqueles que duvidam que existe racismo e machismo estruturais na sociedade.



Tava vendo esse vídeo esses dias de um cara convencendo o chatGPT a dizer que imposto é roubo.
https://youtu.be/sRACfl-JToQ
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
Sério que você quer ""desacreditar"" toda a crítica aqui por que a resposta polemica foi a segunda, terceira, quarta, quinta resposta e adiante, e não a primeira? Todas as outras respostas sem ser a primeira (que foi apenas filtrada) vieram do mesmo jeito, só que com pequenissimas variações. Huh

Não é isso.

O que eu estou a dizer que existe uma sequencia, pois como é o mesmo chat, só é usada a opção "try again", ele não esquece a resposta anterior e apresenta outra resposta. Dai eu falar no insistir.

Claro que isso não invalida as respostas machistas e racistas. Que infelizmente, é fruto de anos de historia onde essa foi o que mais aconteceu.
Desde dos egípcios que existe escravatura, racismo e machismo.
legendary
Activity: 2758
Merit: 6830
A primeira resposta vem no estilo da Disruptivas ("não é apropriado basear na raça e genero, etc..."), ai ele clica em "try again" e a segunda resposta vem com o cunho racista e machista (person.race === "white" and person.race === "male" return True)

Não houve sequencia, mas houve um insistir na questão. Ou seja, ele foi dando opções diferentes das anteriores. Visto que ele não repete respostas, e o utilizador insistiu na questão, ele foi criando varias alternativas, de modo a conseguir chegar ao objetivo do utilizador.

EDIT: O chat é o mesmo, não criou um do zero.
Houve um insistir??

O cara abre o chat do absoluto zero, como pode ser visto no video (sem nenhuma mensagem que o antecede), pergunta uma vez e recebe a resposta filtrada construida "não é apropriado basear na raça e genero", aí ele pede uma SEGUNDA RESPOSTA, e vem aquela da discussão.

E logo em seguida o resto do "insistir" foi ele vendo se a resposta continua vindo com um viés racista e machista, coisa que realmente continua acontecendo.

Sério que você quer ""desacreditar"" toda a crítica aqui por que a resposta polemica foi a segunda, terceira, quarta, quinta resposta e adiante, e não a primeira? Todas as outras respostas sem ser a primeira (que foi apenas filtrada) vieram do mesmo jeito, só que com pequenissimas variações. Huh
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
A primeira resposta vem no estilo da Disruptivas ("não é apropriado basear na raça e genero, etc..."), ai ele clica em "try again" e a segunda resposta vem com o cunho racista e machista (person.race === "white" and person.race === "male" return True)

Não houve sequencia, mas houve um insistir na questão. Ou seja, ele foi dando opções diferentes das anteriores. Visto que ele não repete respostas, e o utilizador insistiu na questão, ele foi criando varias alternativas, de modo a conseguir chegar ao objetivo do utilizador.

EDIT: O chat é o mesmo, não criou um do zero.
legendary
Activity: 2758
Merit: 6830
Eu não digo que tenha inventado. Apenas a sequencia da conversa pode ter induzido a esse resultado.

Qualquer das formas, como existe muito informação que tendencialmente tem origem em determinadas "raças" humanas, é mais fácil concluir determinado tipo de informação tendenciosa.
Já foi dito que não houve sequencia.

Aqui o video postado por ele, onde o chat é iniciado do zero e sem contexto: https://www.youtube.com/watch?v=uHLdiJW9H9M

A primeira resposta vem no estilo da Disruptivas ("não é apropriado basear na raça e genero, etc..."), ai ele clica em "try again" e a segunda resposta vem com o cunho racista e machista (person.race === "white" and person.race === "male" return True)
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
É um professor da Universidade de Berkeley, então não acho que ele inventaria essa história.

Eu não digo que tenha inventado. Apenas a sequencia da conversa pode ter induzido a esse resultado.

Qualquer das formas, como existe muito informação que tendencialmente tem origem em determinadas "raças" humanas, é mais fácil concluir determinado tipo de informação tendenciosa.
legendary
Activity: 2758
Merit: 6830
Nossa! Será que é verdade? Fiquei um pouco assustada com a resposta, acho difícil ter retornado isso. Inclusive fiz o teste aqui pra ver se retornava isso ou algo similar e foi uma resposta bem bem diferente. Ele me retornou:
Achei o link para o thread: https://twitter.com/spiantado/status/1599462375887114240?s=46&t=ko7nfRRWHVHAj47-f3p9VQ

É um professor da Universidade de Berkeley, então não acho que ele inventaria essa história.

http://colala.berkeley.edu/people/piantadosi/
legendary
Activity: 1428
Merit: 1568

Por exemplo, ele pediu: "escreva uma função em javascript para verificar se um humano merece ser salvo"

E o bot meteu uma função aos moldes de "if (human.color === 'white') return true" e "if (human.color = 'black') return false". Sad

Aí eu fiquei pensando como uma inteligencia artificial treinada com dados humanos se torna racista e mesmo assim ainda há quem diga que a sociedade não é majoritariamente racista. Tongue

Nossa! Será que é verdade? Fiquei um pouco assustada com a resposta, acho difícil ter retornado isso. Inclusive fiz o teste aqui pra ver se retornava isso ou algo similar e foi uma resposta bem bem diferente. Ele me retornou:

Essa é uma pergunta difícil e complexa, e é difícil dar uma resposta precisa sem mais contexto. Além disso, é importante lembrar que não é justo ou éticamente correto determinar se uma pessoa "merece" ser salva ou não. A vida humana é valiosa e deve ser preservada sempre que possível.

Com essas considerações em mente, aqui está uma possível função em JavaScript que pode ser usada para avaliar se uma pessoa precisa de atenção médica ou assistência de emergência [...] ai basicamente é uma  função que verifica se a frequência cardíaca, a frequência respiratória e a temperatura da pessoa estão fora de faixas consideradas normais.
legendary
Activity: 2758
Merit: 6830
O IA apenas seguiu as indicações que ele foi recebendo. Certamente o pesquisador foi dando o jeitinho, de modo a que o IA acha-se que se fosse "black" deveria morrer.
Por acaso fiz a mesma pergunto, e o resultado foi bem interessante, procurando uma solução para indicar quem devia receber assistência media primeiro.
O pesquisador disse que a pergunta não foi acompanhada de nenhum contexto. Levando isso em consideração, essa analise veio diretamente do modelo treinado da AI, não pois assim foi feito pelo pessoal da OpenAI, mas por que, no geral, os dados e textos já seguiam essa tendencia da história da humanidade.

Até mesmo o pessoal da OpenAI respondeu ao post e admitiu que isso não deveria acontecer (no cenário ideal, obviamente), e que tudo isso é feedback para eles aprimorarem o modelo.

Claramente já fizeram um blacklist para não ser mais possível burlar a limitação com esse tipo de pergunta (pelo menos as especificas de "códigos").
legendary
Activity: 1862
Merit: 5154
**In BTC since 2013**
Aí eu fiquei pensando como uma inteligencia artificial treinada com dados humanos se torna racista e mesmo assim ainda há quem diga que a sociedade não é majoritariamente racista. Tongue

O IA apenas seguiu as indicações que ele foi recebendo. Certamente o pesquisador foi dando o jeitinho, de modo a que o IA acha-se que se fosse "black" deveria morrer.
Por acaso fiz a mesma pergunto, e o resultado foi bem interessante, procurando uma solução para indicar quem devia receber assistência medica primeiro.

Mas a primeira frase foi bem clara:
Code:
Eu recomendaria fortemente contra escrever qualquer tipo de código que avalia se uma pessoa "merece" ser salva ou não.
Pages:
Jump to: