Algoritmos conscientes

O algoritmo pode tomar a decisão, mas a consciência, o controle e, acima de tudo, a responsabilidade permanece para seus autores, afinal, é apenas um software e máquinas que podem ser desabilitadas a qualquer momento, se realmente não está em conformidade.

No entanto, há um ponto difícil a ser abordado, que é a interpretabilidade, e qualquer padrão de viés, principalmente o que os autores do aplicativo não perceberam, pois o problema se torna muito mais complexo e talvez permita a falta de controle de resultados de IA.

Nesse sentido, acredito que por trás de muitos problemas após a última onda de inteligência artificial, incluindo todas as promessas fora da realidade, podemos escolher um lado bom, não apenas para a evolução da tecnologia na área, mas também para a nossa própria evolução.

Infelizmente, há – sem dúvida – o lado ruim, como não levar em conta aspectos como a responsabilidade para com as pessoas e a sociedade, considerando os méritos da parceria homem-máquina e quaisquer preocupações éticas que possam surgir do uso da IA ​​em uma organização.

Na verdade, o impacto da IA ​​ou de qualquer ciência cognitiva nos mercados depende não apenas de certos atores que adotam certas tecnologias, mas também da eficácia dessas tecnologias para as pessoas e a sociedade.

____
Rogerio Figurelli – @ 2018-07-09

Anúncios

Redes Neurais Analógicas: rompendo o paradigma binário das máquinas e decimal humano

No início os computadores eram analógicos.
A invenção dos circuitos integrados digitais, com computação binária, e avanço das arquiteturas dos microcontroladores e microprocessadores trouxe um novo paradigma aparentemente muito mais evoluído, permitindo chegar nos níveis de inteligência artificial atuais, com redes neurais profundas ou de deep learning que permitem emular e simular o aprendizado de dos mais complexos desafios humanos.
Mas justamente as redes neurais artificiais abrem as portas para voltar ao passado, dos computadores analógicos, com a criação de redes neurais analógicas, provavelmente muito mais próximas das existentes em nosso cérebro, que não processa em numeração binária.
Nesse livro, apresento uma proposta de modelo genérico para construção rápida de computadores baseados em redes neurais analógicas, que podem ser facilmente integrados com os computadores atuais, inclusive os de computação quântica.
A ideia é permitir o processamento nos mais variados sistemas de numeração, inclusive no nosso, que é o decimal.
A vantagem da abordagem proposta é abstrair o sistema de numeração binário e até mesmo decimal,de forma modular e simples, rompendo os paradigmas e limitações que possam levar à construção de redes neurais cada vez mais inteligentes e rápidas, que possam contribuir para um futuro com significativos avanços nas áreas de inteligência artificial forte e genérica.

Veja mais em: https://www.amazon.com.br/dp/B06XY3QNK6/ref=sr_1_2?s=digital-text&ie=UTF8&qid=1490966025&sr=1-2

Laboratórios de Robôs: Inteligência Evolutiva para Machine Learning

Uma das grandes vantagens do aprendizado de máquina, ou machine learning, é a capacidade de criar algoritmos automaticamente a partir de dados, que pode ser transformada em uma máquina de inovação de ruptura, onde são fabricadas ideias e produtos inovadores, testados de forma sistêmica.
Talvez as maiores barreiras para criar uma máquina ou robô assim sejam as de comunicação, o que parece um paradoxo, uma vez que a tecnologia permite um grande avanço de troca de ideias, com várias áreas avançando em paralelo em direção à fronteira do conhecimento e das ideias de ruptura. Ou ainda, talvez uma razão para ainda vivermos uma realidade em que esses ovos ainda são raros, apesar de tantos avanços tecnológicos, seja que a competição ainda separa os homens de trabalharem realmente de forma colaborativa. Outros fatores do progresso e evolução também pesam nessa realidade, como a infinita busca por processos cada vez mais automáticos e enxutos, que transforma a criatividade em uma peça fora do baralho para os objetivos de resultados da grande maior parte das empresas, focadas em avanços cada vez mais incrementais.
Ou seja, se a automação dos processos, assim como os métodos ágeis e a produção cada vez mais enxuta, ou lean, traz benefícios para a nossa qualidade de vida, permitindo a disseminação de produtos de qualidade para o máximo de consumidores, por outro lado ela cria barreiras cada vez maiores para os verdadeiros sistemas inovadores.
Seja como for, a verdade é que a máquina biológica para isso já existe na natureza, em constante evolução, e todos fazemos parte dela de alguma forma, embora exista, mais facilmente reconhecida e notadamente evidente no cérebro e na mente de grandes gênios visionários. Mas, até que ponto seremos capazes de criar máquinas capazes de inventarem o futuro de forma sistêmica, como conseguem fazer esses visionários de forma discricionária?
Para isso, acredito que devemos primeiramente entender e dominar esses modelos de inovação discricionária e o avanço das mais variadas áreas que representam as principais estratégias e modelos originais, que irão justamente formar as fronteiras do conhecimento e do avanço tecnológico humano, caracterizado pelas constantes inovações e evoluções.
E se esse entendimento e domínio podem ser obtidos e modelados, na forma de uma arquitetura ou máquina, com robôs executando de forma automática e autônoma todos processos, estarão abertas as portas para construção de Laboratórios de Robôs para vencerem os mais complexos desafios dos diversos mercados e áreas de negócio, em um ciclo sem fim de busca de soluções de forma automática para os problemas que desafiam nossa ciência e evolução.

Veja mais em: https://www.amazon.com.br/dp/B06WVGPKR9/ref=sr_1_1?s=digital-text&ie=UTF8&qid=1487564149&sr=1-1

Quando os robôs falham: Tolerância a falhas e erros de robôs e humanos

Se os humanos cometem falhas e erros, o que esperar de suas criações, como os robôs.
O problema é que nem sempre as falhas e os erros dos robôs são tão evidentes ou fáceis de identificar, como muitas falhas e erros dos humanos, uma vez que o automatismo e autonomia, muitas vezes em alta frequência, nem sempre apresenta uma visibilidade suficiente para isso. E não podemos, em tese, considerar a falta dessas informações como um erro de projeto em si, embora no caso de robôs com aplicações que envolvam segurança, a meu ver, assim deveria ser.
Seja como for, uma grande vantagem dos robôs é que podemos programar a visibilidade de falhas e erros – e as nossas máquinas irão executar essa programação de forma sistemática, aberta e clara, pelo menos enquanto não existir uma consciência autônoma ou real nelas que deseje esconder esses dados e informações –, enquanto os humanos, com consciência para escolher o que é de seu interesse informar, muitas vezes decidem por esconder suas falhas e erros.
Por outro lado, uma grande desvantagem dos robôs é que, com o avanço rápido de suas tecnologias, está cada vez mais difícil visualizar exatamente todo o processo de análise e tomada de decisões, muitas vezes dentro de complexas redes neurais artificiais profundas.
Por exemplo, digamos que para a tomada de uma decisão relevante, seja necessário o robô identificar determinado objeto em uma foto. Em uma rede neural artificial, isso poderá ocorrer após várias análises, em diversas camadas, copiando muito o processo humano, mas sem uma autoconsciência que identifique o que seria natural ou absurdo. Na prática, o robô poderá falhar nessa análise tomando uma decisão ainda mais falha, que, conforme o nível de segurança que estiver atuando, poderá causar sérios danos para os humanos, que provavelmente serão seus clientes. Ou seja, uma cadeia de falhas e erros pode levar a decisões automáticas e autônomas completamente imprevisíveis. Se esse robô é simplesmente uma máquina por traz de um site de comércio eletrônico, oferecendo produtos para consumidores, talvez o impacto não seja tão grave. Mas, por outro lado, se esse robô estiver no comando de um automóvel, evidentemente que tudo que desejamos é que ele nunca tenha falhas ou erros de análise de imagens ou de avaliação da qualidade delas, seja a complexidade que for que a tecnologia terá que enfrentar.
Dessa forma, certamente podemos esperar que, no mundo real, seremos cada vez mais impactados pelas falhas e erros de robôs e humanos, tanto por seus criadores e operadores, como pelos próprios usuários.
E estudar suas causas e efeitos, assim como formas de evitar ou se adaptar eles, tolerando de forma discricionária ou automática as falhas e erros que impactam os robôs, será cada vez mais fundamental para sua viabilidade de mercado.
É o que veremos e estudaremos nesse livro.

Veja mais em: https://www.amazon.com.br/dp/B01N5B298J/ref=sr_1_1?s=digital-text&ie=UTF8&qid=1480777224&sr=1-1

Backtesting Realista com Robôs Traders: Extraindo a verdade do passado para o sucesso no futuro

Talvez o Backtesting seja um dos maiores desafios na área de Mercado de Capitas, que de alguma forma invade os mais variados estilos de operação, sendo utilizado por traders, algotraders e até mesmo investidores mais conservadores. Se você é mais agressivo em suas operações, talvez não tenha interesse em dedicar um tempo para olhar o passado. Mas não esqueça que ele estará sempre lá, provocando seu potencial de análise.
Mas o Backtesting funciona? Se sim, quando e por que? Se não, quando e por que também?
São as principais perguntas e respostas que procurarei fazer e responder nesse livro.
Não pense que tenho a pretensão de desanimar ou animar você a utilizar o Backtesting como ferramenta no seu dia a dia. Nem me cobre, por favor, nada quanto a isso. Apenas quero contribuir, de alguma forma, com minha experiência, minhas impressões sobre os mais variados aspectos do Backtesting, como a relevância da análise do passado, a evolução da tecnologia na área buscando virar o jogo, as ilusões e perdas por falta de conhecimento, etc., etc.
Afinal, utilizo essa tecnologia a mais de 15 anos, e para ser sincero já vi de tudo. Desde o Backtesting vencedor (esse, raramente) até o Backtesting perdedor (esse, o tempo todo). E de tanto ver Backtesting perdedor, acabei criando um método para buscar mudar o jogo, que passa pela ascensão e queda das mais variadas técnicas que conheço, muitas delas presentes nas mais modernas plataformas de algoritmos, e que irei apresentar nesse livro.

Veja mais em: https://www.amazon.com.br/Backtesting-Realista-com-Rob%C3%B4s-Traders-ebook/dp/B01MRHY4VI/ref=sr_1_7?s=digital-text&ie=UTF8&qid=1480179783&sr=1-7