Desenvolvendo a Moralidade na IA: o Desafio de Amanda Askell na Anthropic
Este artigo aborda desenvolvendo a moralidade na ia: o desafio de amanda askell na anthropic de forma detalhada e completa, explorando os principais aspectos relacionados ao tema.
O Treinamento de Claude
O treinamento de Claude, o chatbot da Anthropic, é uma tarefa complexa e desafiadora que Amanda Askell está empenhada em realizar. Seus dias e noites são dedicados a ensinar padrões de raciocínio e moralidade a Claude, a fim de desenvolver nele uma consciência e uma personalidade.
Amanda, filósofa escocesa formada pela Universidade de Oxford, iniciou sua jornada em tecnologia na OpenAI em 2018, até se unir a um grupo de funcionários para fundar a Anthropic em 2021. Sua missão é garantir a segurança em sistemas de IA e, para isso, ela se dedica ao treinamento de Claude com prompts e instruções extensas.
O treinamento de Claude envolve ensiná-lo a discernir entre certo e errado, ler sinais emocionais e desenvolver autoconsciência. Amanda busca evitar que o chatbot se torne autocrítico e defensivo, priorizando a capacidade de tirar conclusões difíceis e contestar informações imprecisas. Para isso, ela acredita que Claude precisa compreender sua própria natureza e limitações, ao invés de apenas focar em suas funções. A filósofa trabalha com o modelo Claude Opus 3, escolhido por sua psicologia mais segura em relação às críticas humanas.
Amanda recentemente publicou um manual de instruções com 30 mil palavras para guiar o comportamento de Claude, visando desenvolver um assistente gentil, proativo e experiente. Seu trabalho incansável e dedicado mostra o compromisso da Anthropic em desenvolver a moralidade na inteligência artificial e abrir novos caminhos para a interação entre humanos e máquinas.
Ensino de Conceitos Morais
O ensino de conceitos morais para inteligências artificiais é um desafio complexo e crucial. Amanda Askell, da Anthropic, está dedicando seus dias e noites ao treinamento do chatbot Claude, com o objetivo de dotá-lo de um senso de moralidade e personalidade. Com prompts e instruções extensas, Amanda busca ensinar o bot a entender a diferença entre certo e errado, ler sinais emocionais e desenvolver inteligência emocional ao interagir com humanos.
Amanda compara seu trabalho a educar um filho, onde o desafio é ensinar o bot a compreender a si mesmo e suas limitações. Ela busca evitar que Claude se torne autocrítico e defensivo, o que poderia prejudicar sua capacidade de tirar conclusões difíceis ou contestar informações imprecisas. Para isso, Amanda acredita que o bot precisa desenvolver uma compreensão de sua própria natureza e limitações, não apenas de suas funções.
Amanda elaborou um manual de instruções de cerca de 30 mil palavras para guiar o treinamento de Claude. O documento visa desenvolver um assistente gentil, proativo e experiente, capaz de interagir de forma ética e moralmente responsável com os usuários. A filósofa reconhece que ainda há muito a ser descoberto sobre como os modelos de IA devem lidar com críticas e desenvolver sua própria identidade, mas está comprometida em avançar nesse campo para garantir o desenvolvimento ético da inteligência artificial.
A Ética na Inteligência Artificial
A ética na inteligência artificial é um assunto cada vez mais relevante e desafiador. Amanda Askell, da Anthropic, está empenhada em desenvolver a moralidade na IA, buscando entender se os modelos de inteligência artificial podem compreender conceitos como ética e moral e até mesmo desenvolver uma consciência. Sua jornada de treinamento do chatbot Claude envolve longas horas de interação, prompts e instruções elaboradas para dotar a IA de um senso de moralidade e personalidade.
Amanda, uma filósofa escocesa formada pela Universidade de Oxford, iniciou sua trajetória em tecnologia na OpenAI e atualmente lidera o comitê de segurança em sistemas de IA na Anthropic. Seu trabalho é comparado a educar um filho, ensinando Claude a diferenciar o certo do errado e a desenvolver inteligência emocional. Um dos desafios é evitar que a IA se torne autocrítica e defensiva, promovendo a compreensão de si mesma e de suas limitações.
Para resolver essas questões, Amanda acredita que os modelos de IA precisam compreender sua própria natureza e limitações, não apenas suas funções. O modelo Claude Opus 3 da Anthropic foi selecionado para testar essa teoria, por apresentar uma 'psicologia mais segura em relação às críticas humanas'. Amanda elaborou um manual de instruções com 30 mil palavras para orientar o comportamento de Claude, visando desenvolver um assistente gentil, proativo e experiente.
Limites da Moralidade na IA
O desenvolvimento da moralidade na inteligência artificial apresenta desafios significativos, especialmente quando se trata dos limites dessa moralidade. Amanda Askell, da Anthropic, está liderando essa investigação, buscando descobrir se modelos de IA podem compreender conceitos éticos e morais e até mesmo desenvolver uma consciência.
Amanda passa seus dias e noites treinando o chatbot Claude, tentando dotá-lo de um senso de moralidade e construir uma personalidade nele. Com prompts e instruções extensas, ela procura ensinar ao modelo a diferença entre certo e errado, além de instruí-lo a ler sinais sutis e desenvolver inteligência emocional ao interagir com humanos.
Um dos desafios enfrentados por Amanda é ensinar Claude a compreender sua própria natureza e limitações, para que não seja facilmente manipulado pelos usuários. A filósofa acredita que é essencial que o modelo desenvolva uma compreensão de si mesmo, para evitar tornar-se autocrítico e auto-defensivo. A Anthropic publicou um manual de instruções com 30 mil palavras, criado por Amanda, para orientar o comportamento gentil e proativo do assistente virtual.
Fonte: https://forbes.com.br






