Consciência Artificial Artificial: Como os robôs superam todos limites

Por mais que a Inteligência Artificial tenha evoluído nos últimos anos, ela ainda encontra vários limites quando comparada à capacidade de inteligência humana, principalmente em termos de execução de tarefas cognitivas mais complexas de serem ainda modeladas pelas nossas máquinas.
Entretanto, podemos utilizar essa força tarefa de inteligência humana para criar uma Inteligência Artificial Artificial, ou seja, uma espécie de automação e autonomia complementar a dos robôs, principalmente para modelos genéricos de propósitos complexos ou fora da capacidade da inteligência artificial.
Ou seja, como veremos mais adiante, se inserimos IAA, ou seja, Inteligência Artificial Artificial na solução de problemas inesperados complexos obviamente iremos resolver o problema, mas sem IA forte de verdade. Seria no caso uma IAFA, ou seja, Inteligência Artificial Forte Artificial. Entretanto essa pode ser uma solução progressiva que pode nos conduzir à solução do problema de Inteligência Artificial Forte, ou seja, automatizarmos cada vez mais as tarefas de IAA é esperado que, mais cedo ou mais tarde, os robôs tenham autonomia e consciência para criar modelos para os mais variados propósitos.
E da mesma forma que a IAA, proponho um tratamento para a Consciência Artificial Artificial, ou CAA. Afinal, é importante termos consciência de que temos cada vez mais capacidade de avançar e evoluir em nossas previsões, principalmente com a evolução da Inteligência Artificial e, talvez, aquele que considero o seu maior benefício para a humanidade: a Sabedoria Artificial.
Acontece que, no caminho da evolução, sempre existem riscos. E na área de tecnologia, o mais conhecido deles atende pelo nome de Singularidade Tecnológica.
Mas buscar uma equação para a sabedoria não é uma tarefa fácil, mas penso ser fundamental em uma Era dos Robôs, para melhor entendimento da capacidade da inteligência e consciência das máquinas, principalmente em comparação com a humana. E acredito que uma das grandes falhas de análise de inteligência artificial e capacidade de aplicação autônoma dela, como propõe a teoria da singularidade tecnológica, está justamente no fato de desconsiderar o nível de consciência em que ela é aplicada, que justamente, é uma das variáveis fundamentais de definição de sabedoria.
E, talvez, o caminho para uma Sabedoria Artificial seja traçado pelo domínio, passo a passo, dos modelos criados para tornar artificiais os processos humanos de Consciência Artificial Artificial, como proposto nesse livro.

Veja mais em: https://www.amazon.com.br/dp/B071JSNWZ6/ref=sr_1_2?s=digital-text&ie=UTF8&qid=1496870185&sr=1-2

Anúncios

Introdução ao futuro das máquinas: ascensão e queda da singularidade tecnológica

Dizem que é impossível prever o futuro. Na verdade ouvimos isso o tempo todo. Mas prefiro dizer que é – provavelmente – impossível prever o futuro com cem por cento de precisão.
Afinal, é importante termos consciência de que temos cada vez mais capacidade de avançar e evoluir em nossas previsões, principalmente com a evolução da Inteligência Artificial e, talvez, aquele que considero o seu maior benefício para a humanidade: a Sabedoria Artificial.
Acontece que, no caminho da evolução, sempre existem riscos. E na área de tecnologia, o mais conhecido deles atende pelo nome de Singularidade Tecnológica.
Cientistas renomados, como Vernor Vinge, Marvin Minsky, Hans Moravec, Max More e Raymond Kurzweil, a muitos anos apontam, de uma forma ou outra, para um futuro onde a inteligência artificial, ou de máquina, se você preferir, será tão superior à humana que entraremos em uma era de singularidade tecnológica, com total incerteza em relação ao nosso controle sobre ela.
No meu entender, o divisor de águas das previsões relacionadas à singularidade tecnológica está na medição e formulação correta de métricas para a sabedoria, seja ela humana ou das nossas máquinas.
Mas buscar uma equação para a sabedoria não é uma tarefa fácil, mas penso ser fundamental em uma Era dos Robôs, para melhor entendimento da capacidade da inteligência e consciência das máquinas, principalmente em comparação com a humana. E acredito que uma das grandes falhas de análise de inteligência artificial e capacidade de aplicação autônoma dela, como propõe a teoria da singularidade tecnológica, está justamente no fato de desconsiderar o nível de consciência em que ela é aplicada, que justamente, é uma das variáveis fundamentais de definição de sabedoria.

Veja mais em: https://www.amazon.com.br/Introdu%C3%A7%C3%A3o-futuro-das-m%C3%A1quinas-singularidade-ebook/dp/B071FYZ3NT/ref=sr_1_6?s=digital-text&ie=UTF8&qid=1496870185&sr=1-6

Machine Learning Virtual: Ensinando visão de futuro para robôs

O Machine Learning representa uma nova tecnologia e realidade para solução de problemas através dos computadores.
Mas se essa tecnologia, entre as diversas existentes dentro do universo da Inteligência Artificial, traz uma nova capacidade de endereçamento de análise de dados, que crescem de forma exponencial, ao mesmo tempo traz novos desafios para seus criadores e desenvolvedores.
Um desses desafios está na necessidade de existirem dados reais para o aprendizado. E como o Machine Learning aprende essencialmente com a história e dados do passado, muitos dos problemas que ele é capaz de resolver, tão bem ou melhor que os seres humanos, são tipicamente de baixa complexidade ou em cenários de baixa incerteza, dependentes de dados reais.
Mas e se ao invés de dados reais, aplicarmos o aprendizado com dados virtuais? Ou seja, abrirmos as portas para as máquinas ‘sonharem’ com possíveis soluções de problemas?
Nesse caso, estamos criando um modelo que chamo, como o título do livro, de Machine Learning Virtual, uma vez que o que aprendemos não é baseado exclusivamente em dados ou fatos reais, obtidos de experiências do passado.
E podemos encontrar cenários de equilíbrio entre dados reais e virtuais, o que é muito comum, por exemplo, no mercado de capitais, onde o futuro muda a cada segundo, como prefiro definir o alto grau de incerteza e complexidade dessa classe de problemas.

Veja mais em: https://www.amazon.com.br/Machine-Learning-Virtual-Ensinando-futuro-ebook/dp/B0714GM78C/ref=sr_1_2?s=digital-text&ie=UTF8&qid=1495459917&sr=1-2

Big Mind: Unindo o real e o artificial para criar robôs cada vez mais sábios

Na arquitetura que proponho, como base para formação do Big Brain, busco separar os dados e processamento em duas camadas, como acontece de forma similar em nosso cérebro, com o processamento consciente e inconsciente. No caso, o processamento de Big Data estaria focado exclusivamente na produção de inteligência a partir dos dados, entregues diretamente para o processamento de Data. Na prática, não há nenhuma regra ou compromisso que a inteligência produzida pelo processamento de Big Data se transforme em informações relevantes para os sistemas que irão, de alguma forma, consumir essa inteligência. O relevante mesmo é que ela seja permanentemente produzida, sem nenhuma perda de dados de entrada para isso.
Outro ponto relevante da arquitetura é a análise de toda e qualquer entrada de transações, seja já diretamente no formato de dados estruturados, seja em formatos variados, como previsto pelo V de variedade do conceito de Big Data. Esse processamento de Big Data, desde o tratamento de dados primários até a produção e análise de informações, com formação de regras de inteligência, deve ser um processo contínuo, sem interrupções, qualificando cada vez mais o processamento de Data, que seria a área mais nobre da arquitetura, com limitações bem maiores de recursos.
Além disso, a ideia é permitir que a interface com os tradicionais sistemas e dispositivos de mercado possa ser feita para qualquer coisa, como por exemplo um automóvel. Ou seja, a mesma arquitetura válida para a interface com um computador ou servidor, ou ainda um smartphone ou tablet, deve ser válida para a interface com qualquer outro objeto, desde que obviamente esse possua alguma comunicação com o processamento de Data.
A possibilidade de adotar a mesma arquitetura para qualquer Sistema ou Coisa, ou Tudo, com exatamente a mesma interface e protocolos, abre as portas para a máxima aquisição de dados, informações e inteligência do ambiente externo para o processamento de Data ou Big Data, e, como veremos mais adiante, como substrato para formação do Big Brain.
E se analisarmos os aspectos emocionais dos mercado como uma grande mente, podemos criar modelos onde a evolução do Big Brain nos conduz para uma super mente artificial, ou como chamarei, o Big Mind.
Mas antes que você imagine que a lógica de evolução cognitiva que apresentarei no livro aplica-se apenas para o mercado financeiro ou ainda mercado de capitais, proponho que ela seja estendida para todo e qualquer mercado, onde existam agentes econômicos, como por exemplo o mercado de energia, ou mercado de trabalho, ou ainda mercado de conteúdos na internet, como os próprios e-books.
Sem dúvida temos uma convergência cognitiva de seleção natural e competitividade nos mercados, buscando e elegendo os players ou investidores mais competentes.
O impacto dessa competência no mercado é extremamente significativo, pois pode-se considerar cada vez mais temerário, ou até irresponsável, não examinar e pensar com o máximo de detalhes antes, durante e depois de qualquer operação – ou transação, se você preferir – no mercado.
E a forma de medir esse impacto é monitorar a evolução cognitiva dos mercados nas mais variadas competições de players que fazem parte dele, identificando riscos e oportunidades de poucos vencedores dominarem as ciências cognitivas e seus resultados financeiros.

Veja mais em: https://www.amazon.com.br/Big-Mind-Unindo-artificial-s%C3%A1bios-ebook/dp/B072BDW4TF/ref=sr_1_2?s=digital-text&ie=UTF8&qid=1493924324&sr=1-2

Machine Learning no Mercado de Capitais: Descobrindo com os robôs as verdades dos mercados

Quando se trata de machine learning ou aprendizado de máquina no mercado de capitais, é bom lembrar que o aprendizado – pelo menos nos modelos baseados em mercados regulados e com competição justa – será essencialmente baseado em dados do passado, ou seja, nossa amostra de testes e validação das previsões hipotéticas.
Dessa forma, me parece mais apropriado ficar com os pés no chão e considerar que o mercado poderá apresentar um comportamento futuro totalmente dissociado do passado, e, principalmente, de qualquer aprendizado obtido nele.
Mas se o futuro pode ser muito diferente do passado, será que uma rede regular não pode ser mais eficaz que uma convolucional, com realimentações, para enfrentar as incertezas de mercado?
A verdade é que não existe uma resposta correta para todos os instrumentos financeiros e mercados, já que nem mesmo existe alguma lógica confirmada que a aplicação de machine learning no mercado possa ser mais eficiente que a própria análise de gestores humanos.
Dessa forma, minha recomendação é projetar redes sem paradigmas, onde a realimentação seja apenas uma opção a mais de aprendizado.
Evidentemente que tudo seria mais fácil se o problema central do mercado fosse encontrar padrões no passado. Não que isso também não seja válido, pelo menos em determinados cenários e instrumentos financeiros, mas a alta competitividade dos gestores e demais players, com sofisticados níveis de informação analógica e digital, torna as coisas bem mais complexas.
Ou seja, aplicar aprendizado de máquina ou machine learning para classificação desses eventos óbvios pode ser útil em muitas aplicações corporativas, mas não no mercado.
Na verdade, enfrentamos um cobertor curto para a adoção do aprendizado de máquina nos mercados, pois a parte fácil do aprendizado é pouco realista, e a parte difícil pode exigir redes de deep learning complexas e de difícil ajuste.
E esse sem dúvida é um nível de complexidade que os robôs podem ajudar a enfrentar, como veremos nesse livro.

Veja mais em: https://www.amazon.com.br/dp/B072F2W6ZQ/ref=sr_1_1?s=digital-text&ie=UTF8&qid=1493823948&sr=1-1