Ano do Jubileu para o FTP

O dia 16 de abril de 1971 não é apenas a data em que os Rolling Stones lançaram Brown Sugar, mas também é lembrado, no mundo da Tecnologia da informação, pela publicação da RFC 114 marcando o dia do nascimento do FTP [File Transfer Protocol – Protocolo de Transferência de Arquivo].

Naqueles dias, este bloguista, infante, ainda achava que o mundo era mágico. A guerra do Vietnã estava na vanguarda das notícias; o TCP/IP ainda não existia; Jimi Hendrix tinha morrido há 6 meses; o Telnet era o novo “cool kid” e alguns dos artistas de rock’n’roll mais influentes estavam perto de lançar inesquecíveis obras-primas [Imagine, John Lennon, e.g.] – enquanto o FTP ainda usava um protocolo de rede chamado NCP [Network Control Protocol].

FTP – O mais popular protocolo de transferência de arquivo

Ao longo dos anos, o protocolo FTP foi refinado com 16 revisões diferentes[1], adicionando suporte com TCP/IP, uma extensão segura também conhecida como FTPS – que aproveita a mesma tecnologia que o HTTPS – e adições mais recentes, como suporte IPv6.

Cinquenta anos após o seu início, o protocolo ainda está muito forte, com milhões de servidores FTP ainda expostos na internet, o que é bastante surpreendente, considerando a má publicidade que recebe de algumas pessoas, empresas e instituições, que escrevem sobre o quão ruim o FTP está sendo ao vender o protocolo como um produto completo [mesmo que em muitos casos, o mais próximo que certos críticos chegaram do FTP é alguma API proprietária muito menos inteligente, que só pode ser usada se os distintos forem gentis o bastante para te dar uma chave].

Debian Linux, por exemplo, é um dos críticos e alega que desativou seus serviços de Protocolo de Transferência de Arquivos Públicos (FTP) em 2017, porque quase ninguém os usava mais e eles são difíceis de operar e manter. “Nosso próprio instalador não ofereceu FTP como uma maneira de acessar espelhos por mais de dez anos”, disseram.

As razões são bem simples: O colaborador do Debian Cétric Boultier diz que “servidores FTP não têm suporte para cache ou aceleração”, o que provavelmente significa que o Debian tem que jogar mais hardware no FTP do que seria sensato. Ele também observa que a maioria das implementações de software clientes “estagnaram e são desajeitadas de usar e configurar… O protocolo é ineficiente e requer adições de improvisações desajeitadas a firewalls e daemons de balanceamento de carga”.

De qualquer maneira, em 2021, o que parece ser reconhecido como progresso toma a forma de protocolos proprietários, feitos a portas fechadas e sem qualquer RFC [Request For Comment]. Em vez disso, o que sobra aos desenvolvedores que desejam criar servidores concorrentes é fazer a engenharia reversa dos kits de desenvolvimento de software.

Na verdade, em um mundo ideal não deveria importar qual ferramenta se usa, mas sim se essa ferramenta é fácil de usar, se vovó pode transferir as fotos que ela deseja compartilhar, abrir vídeos e fazer todas as outras coisas que não deveriam exigir dela conhecimentos sobre protocolos – pois nosso trabalho como engenheiros de dados é abstrair todas essas coisas complicadas para que, pela magia da abstração, alguém acessando sua conta bancária no conforto de seu lar não tenha que entender de criptografia ao usar SSL.

[1] FTP ao longo dos anos:

  • RFC 114 (abril de 1971)
  • RFC 697 (julho de 1975): Comando CWD
  • RFC 765 (junho de 1980): TCP / IP
  • RFC 959 (outubro de 1985): Protocolo de transferência de arquivos
  • RFC 1579 (fevereiro de 1994): FTP compatível com firewall
  • RFC 1635 (maio de 1994): Como usar o FTP anônimo
  • RFC 1639 (junho de 1994): FTP Operation Over Big Address Records
  • RFC 1738 (dezembro de 1994): Uniform Resource Locators
  • RFC 2228 (outubro de 1997): Extensões de Segurança FTP
  • RFC 2389 (agosto de 1998): Mecanismo de negociação de recursos para o protocolo de transferência de arquivos
  • RFC 2428 (setembro de 1998): Extensões para IPv6, NAT e modo passivo estendido
  • RFC 2577 (maio de 1999): Considerações de segurança de FTP
  • RFC 2640 (julho de 1999): Internacionalização do Protocolo de Transferência de Arquivos
  • RFC 3659 (março de 2007): Extensões para FTP
  • RFC 5797 (março de 2010): Registro de Comando e Extensão FTP
  • RFC 7151 (março de 2014): Comando HOST do protocolo de transferência de arquivos para hosts virtuais.

Fonte: Adaptado de filestash.app

Como a Riqueza é Gerada Hoje

Em 1960, a maioria das pessoas que começam uma startup hoje teria ido trabalhar para uma delas. Era possível ficar rico abrindo sua própria empresa em 1890 e em 2020, mas em 1960 isso não era realmente uma opção viável. Você não podia romper os oligopólios para chegar aos mercados. Portanto, a rota de prestígio em 1960 não era começar sua própria empresa, mas subir na escada corporativa em uma empresa já existente.

Transformar as pessoas em funcionários corporativos diminuiu a desigualdade econômica (e todos os outros tipos de desigualdade), mas se tomarmos como modelo de normalidade a metade do século 20, teremos em vista um modelo muito enganador. A economia das grandes corporações acabou sendo apenas uma longa fase e, a partir dos anos 1970, começou a se desintegrar.

Por que a fase acabou? Em parte por senescência. As grandes empresas que tomávamos como modelos de escala e eficiência em 1930 haviam se tornado frouxas e inchadas em 1970. Na década de 1970, a estrutura rígida da economia estava cheia de ninhos aconchegantes que vários grupos haviam construído para se isolar das forças do mercado. Durante o governo Carter, o governo federal americano percebeu que algo estava errado e começou, em um processo que chamaram de “desregulamentação”, a reverter as políticas que sustentavam os oligopólios.

Mas não foi apenas a decadência interna que quebrou a economia dos J. P. Morgans. Também houve pressão de fora, na forma de novas tecnologias, principalmente a microeletrônica. A melhor maneira de visualizar o que aconteceu é imaginar um lago com uma crosta de gelo. Inicialmente, o único caminho do fundo para a superfície é pelas bordas. Mas, à medida que a crosta de gelo enfraquece, você começa a conseguir chegar pelo meio.

As bordas do lago eram pura tecnologia: empresas que de fato se descreviam como sendo do ramo de eletrônicos ou software. Quando você usava a palavra “startup” em 1990, era isso que você queria dizer. Mas agora as startups estão avançando bem no meio da crosta de gelo e deslocando empresas já estabelecidas, como varejistas, redes de TV e montadoras.

Mas embora o colapso da economia industrial clássica tenha criado um novo mundo no sentido tecnológico, houve uma reversão ao normal no sentido social. Se apenas olharmos para meados do século 20, fica nítido que ficar rico abrindo sua própria empresa é um fenômeno recente. Mas se você olhar mais para trás, perceberá que realmente esse é o padrão natural. Portanto, o que devemos esperar no futuro é mais do mesmo. Na verdade, devemos esperar que tanto o número quanto a riqueza dos fundadores de empresas cresçam, porque a cada década fica mais fácil iniciar uma startup.

Parte do motivo pelo qual está ficando mais fácil iniciar uma startup é social. A sociedade está (re) assimilando o conceito de empreender. Se você começar um negócio agora, seus pais não vão pirar como faziam há uma geração, e o conhecimento sobre como fazer isso estará muito mais difundido. Mas a principal razão pela qual é mais fácil iniciar uma startup agora é que é mais barato. A tecnologia reduziu o custo de construção de produtos e aquisição de clientes.

O custo decrescente de iniciar uma startup, por sua vez, mudou o equilíbrio de poder entre fundadores e investidores. Antes, quando começar uma startup significava construir uma fábrica, você precisava da permissão dos investidores para fazer isso. Mas agora os investidores precisam dos fundadores mais do que os fundadores precisam dos investidores, e isso, combinado com a quantidade cada vez maior de capital de risco disponível, aumentou a valorização do setor.

Portanto, o custo decrescente de iniciar uma startup faz aumentar o número de pessoas ricas de duas maneiras: significa que a) mais pessoas iniciam uma empresa, e b) que aqueles que o fazem podem levantar dinheiro em melhores condições.

Mas também há um terceiro fator em ação: as próprias empresas são mais valiosas, porque empresas recém-fundadas crescem mais rápido do que antes. A tecnologia não só tornou mais barato construir e distribuir coisas, mas também tornou isso mais rápido.

Esta tendência já existe há muito tempo. A IBM, fundada em 1896, levou 45 anos para atingir um bilhão de dólares em receita. A Hewlett-Packard, fundada em 1939, demorou 25 anos. A Microsoft, fundada em 1975, demorou 13 anos. Agora, a norma para empresas de rápido crescimento é de 7 ou 8 anos.

O crescimento rápido tem um efeito duplo no valor das ações dos fundadores. O valor de uma empresa é função de sua receita e de sua taxa de crescimento. Portanto, se uma empresa cresce mais rápido, você não apenas atinge um bilhão de dólares em receita mais cedo, mas a empresa é mais valiosa quando atinge esse ponto do que seria se estivesse crescendo mais devagar.

É por isso que os fundadores às vezes ficam tão ricos tão jovens agora. O baixo custo inicial de iniciar uma startup significa que os fundadores podem começar jovens, e o rápido crescimento das empresas hoje significa que, se tiverem sucesso, poderão ser surpreendentemente ricas alguns anos depois.

Hoje é mais fácil do que nunca iniciar e expandir uma empresa. Isso significa que mais pessoas as iniciam, e aquelas que o fazem recebem melhores condições dos investidores e suas empresas se tornam mais valiosas. Depois de entender como esses mecanismos funcionam, e que as startups na verdade foram suprimidas durante a maior parte do século 20, você não precisa recorrer mentalmente à vaga curva à direita que os EUA deram no governo Reagan para explicar por que o coeficiente Gini da América está aumentando. É obvio que o coeficiente Gini está aumentando. Com mais gente começando empresas mais valiosas, como poderia não ser assim?

Dispositivos Wi-Fi em Breve se Tornarão Sensores de Objetos

Em aproximadamente três anos, a especificação Wi-Fi está programada para sofrer uma atualização que transformará dispositivos sem fio em sensores capazes de coletar dados sobre as pessoas e os objetos banhados por seus sinais.

“Quando a 802.11bf estiver finalizada e introduzida como padrão IEEE em setembro de 2024, o Wi-Fi deixará de ser um padrão somente de comunicação e legitimamente se tornará um protocolo de sensoriamento completo”, explica Francesco Restuccia, Professor Assistente de Engenharia e Computação na Northeastern University, em um artigo resumindo o estado do projeto Sensing do Wi-Fi (SENS), atualmente sendo desenvolvido pelo Instituto de Engenheiros Eletricistas e Eletrônicos (IEEE).

Perturbações no campo eletromagnético tornam pessoas e objetos visiveis através de paredes na nova especificação Wi-Fi

O SENS é previsto como uma maneira de fazer dispositivos Wi-Fi usarem diferenças de interferência de sinal para medir o intervalo, velocidade, direção, movimento, presença e proximidade de pessoas e objetos.

*Segurança e controle de privacidade ainda estão sendo avaliados, o que significa que provavelmente não haverá nada disso [o que me tira o sono à noite!]

Mais no The Register (em Inglês)

Pare de Chamar Tudo de ‘Inteligência Artificial’!

Não existe na Neurociência uma Teoria Geral da Mente, que suporte de forma objetiva os esforços da engenharia para construir uma máquina que simule as funcionalidades do cérebro biológico. Não há sequer um esboço dessa teoria. Por esta razão, os sistemas de inteligência artificial geral ainda estão muito longe de ser avançados o suficiente para substituir os humanos em muitas tarefas envolvendo o raciocínio, o conhecimento do mundo real e a interação social.

A versão contemporânea da Inteligência Artificial é apenas um algoritmo, propriamente chamado de Aprendizagem de Máquina.

Sem dúvida eles têm mostrado competência de nível aparentemente humano em habilidades repetitivas de reconhecimento de baixo nível, mas no nível cognitivo eles estão apenas imitando a inteligência humana, obedecendo a um rígido algoritmo clássico; uma máquina eletrônica incapaz de qualquer pensamento, raso ou profundo, ou criatividade, diz Michael I. Jordan, um pesquisador líder em AI e aprendizagem de máquinas.

Jordan é professor no Departamento de Engenharia Elétrica e Ciência da Computação, e do Departamento de Estatística, na Universidade da Califórnia, Berkeley. Ele ressalta que a imitação do pensamento humano não é o único objetivo da aprendizagem de máquina – o campo da engenharia de software que sustenta o progresso recente na busca da AI – ou mesmo o melhor objetivo. Em vez disso, a aprendizagem de máquina pode servir para estender a inteligência humana, via análise meticulosa de grandes conjuntos de dados, da mesma maneira que um mecanismo de busca aumenta o conhecimento humano organizando a Web. A aprendizagem de máquina também pode fornecer novos serviços aos seres humanos, em domínios como saúde, comércio e transporte, reunindo informações armazenadas em vários conjuntos de dados, encontrando padrões e propondo novos cursos de ação.

“As pessoas estão ficando confusas com o significado de AI nas discussões sobre tendências de tecnologia – existe uma noção de que há nos computadores algum tipo de pensamento inteligente responsável ​​pelo progresso, e que essa inteligência está competindo com os humanos”, diz ele. “Nós não temos isso, mas as pessoas falam como se tivéssemos.” Jordan deve saber. Afinal, o Fellow da IEEE é uma das autoridades líderes do mundo em aprendizado de máquina. Em 2016, ele foi considerado o mais influente cientista de computação por um programa que analisou publicações de pesquisa, informou a revista Science.

Jordan ajudou a transformar o campo da aprendizagem de máquina não supervisionada [que pode encontrar padrões e estruturas em massas de dados não indexados], de uma coleção de algoritmos não relacionados a um campo intelectualmente coerente. A aprendizagem não supervisionada desempenha um papel importante em aplicações científicas, especialmente onde não há dados uniformemente formatados sobre um problema (como o tráfego da Internet, por exemplo).

“Embora as extrapolações da ficção científica sobre AI e super inteligência sejam divertidas, elas são apenas uma distração “, diz ele. “Não tem havido foco suficiente no problema real, que é construir sistemas baseados em aprendizagem de máquina em escala planetária que realmente funcionem, ofereçam valor para os seres humanos e não ampliem as desigualdades.

Na íntegra em spectrum.ieee.org (em inglês)