Shared posts

29 Sep 03:24

O sistema de escape que salvou o foguete de Jeff Bezos

by Carlos Cardoso

Blue Origin, a empresa aeroespacial de Jeff Bezos fracassou al lançar seu foguete New Shepard, em uma missão de pesquisa, mas seu sistema de escape funcionou excepcionalmente bem.

Um New Shepard decolando. (Crédito: Blue Origin)

Era a missão NS-23, 23ª da Blue Origin, e deveria levar 23 cargas úteis ao limiar do Espaço em 12 de Setembro de 2022, ultrapassando a Linha de Karman por uns 3 minutos, antes de retornar para a Terra em queda livre. Entre as cargas, milhares de cartões postais que seriam vendidos para caridade, experimentos de escolas primárias, um teste para estudar a força da superfície de asteróides, algumas missões da NASA, um projeto de seis estudantes para testar o efeito da gravidade em ondas ultrassônicas, e muito mais. A lista parcial está aqui.

O lançamento foi perfeitamente nominal, com o New Shepard iniciando seu 23º lançamento (não do mesmo foguete, a Blue Origin tem (ou melhor, tinha) 4). Tudo correu bem até 1’02” de vôo, quando o foguete atingiu o ponto chamado Max-Q, o ponto de máxima pressão aerodinâmica.

O que é Max-Q

O conceito é deliciosamente simples: Quando você acelera, enfrenta resistência do ar, todo mundo já brincou com a mão fora da janela do carro, variando o ângulo e sentindo a força do ar, lembra? Com qualquer veículo é a mesma coisa, exceto que no caso de foguetes, você está subindo para cima (ênfase), então a densidade do ar tende a diminuir com a altitude, correto?

Quanto mais alto, menor a resistência do ar, exceto que você está acelerando, então mesmo com a densidade da atmosfera diminuindo, você está cada vez mais rápido, empurrando mais ar.

Essa corrida entre a velocidade crescente e a pressão decrescente atinge um ponto em que o ar perde por WO, não há mais ar o suficiente para exercer resistência, e ela começa a cair. Nesse ponto a pressão aerodinâmica do ar contra o foguete atingiu seu grau máximo, Max-Q. Passou disso, não há mais chances de o foguete falhar por pressão aerodinâmica.

Como você pode ver, é bem simples. (Crédito: NASA)

No caso do New Shepard, Max-Q não teve nada a ver com o problema. O motor BE-3 do New Shepard deu uma engasgada, como se tivesse sujeira no platinado (pergunte a seus pais). Momentos depois outro engasgo, e então a chama limpa, quase transparente da queima do Hidrogênio deu lugar a uma labareda amarela, típica da queima de fragmentos do motor.

O foguete deu uma guinada para o lado, e um computador muito mais inteligente do que eu e você juntos entendeu que o foguete havia saído de seu envelope de vôo, e era hora de ativar a 1ª Lei da Robótica:

“Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.”

O computador não tinha como saber que a cápsula RSS H. G. Wells não levava passageiros, e isso não importava. O procedimento era o mesmo: Acionar o sistema de escape, essencialmente um enorme motor de combustível sólido, ele se estende para dentro da cápsula, é aquele console cilíndrico no meio da cápsula, que parece uma mesinha de centro futurista.

Lançada para longe do foguete em processo de autodestruição, a cápsula atingiu seu apogeu, depois começou a cair em direção à Terra. Como planejado, seus pára-quedas foram automaticamente acionados, reduzindo a velocidade de descida. Momentos antes de tocar no solo, retrofoguetes garantiram um contato suave.

Enquanto o foguete se esfarelava em uma linda explosão, o sistema de escape do New Shepard havia funcionado perfeitamente, e nem foi a primeira vez.

Em 2018 a Blue Origin testou seu sistema de escape, e foi um teste tão bem-sucedido que até o foguete conseguiu pousar, algo que não era esperado.

Sistema de Escape - História

Foguetes com sistema de escape não são novidade. Dado o risco envolvido, astronautas preferiam ter uma chance de sobreviver a um desastre, por menor que fosse.

Em abril de 1961 Yuri Gagarin se tornou o primeiro homem no espaço, a bordo da Vostok 1. Seu sistema de escape era primitivo, um assento ejetor. Em caso de emergência uma escotilha seria explodida, seu assento ejetado da cápsula por um foguete, e ele cairia de pára-quedas.

O assento ejetor da Vostok de Yuri Gagarin (Crédito: Roscosmos)

O sistema funcionou perfeitamente, mas não houve nenhum acidente. Os russos não tinham conseguido fazer a cápsula desacelerar o suficiente, mesmo com pára-quedas, então o procedimento-padrão da Vostok era, quando do retorno para a Terra, a cápsula acionar pára-quedas, e a uma altitude de 7Km, o cosmonauta seria ejetado, caindo até 2.5Km de altitude, acionando seu próprio pára-quedas, e pousando em segurança.

Quando subiu ao espaço no Mercury-Redstone 3 em maio do mesmo ano, Alan Shepard tinha acoplada à sua cápsula uma torre de escape, um sistema usado em caso de emergência, composto de uma extensão no nariz da cápsula, contendo quatro motores de combustível sólido que puxam a mesma para longe do foguete.

Em Moscou, Sergei Korolev coçou a cabeça, pensou “é uma ótima idéia, vamos kibá-la”.

Os russos abandonaram a idéia do assento ejetor, e adotaram a torre de escape. Essa decisão seria fundamental para a saúde dos cosmonautas Vladimir Titov e Gennadi Strekalov. Eles eram a tripulação da Soyuz T-10A-1, que seria lançada em 26 de setembro de 1983.

Exceto que Murphy decidiu que não iria subir ninguém. Uma válvula com defeito fez com que nitrogênio pressurizasse uma turbo-bomba de combustível, que girou a seco. Com isso ela superaqueceu, pegou jogo, danificou linhas de RP-1 e tudo pegou fogo, com querosene se espalhando pelo chão à volta do foguete.

Sem entrar em detalhes muito técnicos, não é uma coisa boa quando seu foguete está em chamas, e ao mesmo tempo contém mais de 300 toneladas de combustível e oxidante.

Quando perceberam a gravidade da situação, os técnicos no controle da missão acionaram o sistema de escape... e nada aconteceu. O fogo havia derretido os cabos de comunicação. Na cabine, os cosmonautas não faziam idéia do que estava acontecendo, então não tinham como acionar o sistema também.

Havia um backup, um acionamento por rádio, mas ele precisava ser acionado por dois técnicos apertando botões ao mesmo tempo, com intervalo máximo de 5 segundos, e eles só fariam se recebessem uma palavra-chave.

A clássica burocracia russa conseguiu atrasar o acionamento, mas ele finalmente aconteceu. Como num bom filme de ação, a cápsula Soyuz foi ejetada do foguete dois segundos antes que ele explodisse.

A cápsula pousou, com ajuda de pára-quedas, a 4Km de distância da plataforma, com dois cosmonautas assustados, mas inteiros.

Em 2018 o sistema de escape da Soyuz foi mais uma vez usado, dessa vez ao extremo.

Dia 11 de outubro, um lançamento levaria o cosmonauta Aleksey Ovchinin e o astronauta T. Nicklaus Hague para a Estação Espacial Internacional, e o lançamento na missão Soyuz MS-10 correu bem até a hora de alijar os quatro propulsores auxiliares, manobra que forma a famosa Cruz de Korolev, com os quatro boosters girando enquanto se afastam do foguete.

Exceto que uma das cargas pirotécnicas responsáveis pelo empurrão lateral dos boosters falhou. O enorme foguete de 19.2m de comprimento girou perto demais e rasgou a lateral do Soyuz, atingindo o tanque de combustível. O foguete começou imediatamente a girar sem controle.

Ovchinin e Hague, antes do susto. (Crédito: Roscosmos)

Era hora de acionar a torre de escape, exceto que isso não era mais possível. O acidente ocorreu aos 118 segundos de vôo. Aos 114.16 a torre de escape havia sido ejetada, como de rotina.

Só que os engenheiros espaciais russos adoram um plano. Russos não vão ao banheiro sem um plano. No período em que a torre de escape já havia sido ejetada (por volta de 42Km de altitude) até uns 78Km de altitude, a tarefa de salvar a cápsula cabia a quatro motores de escape, instalados na carenagem que protege e envolve a cápsula, durante o lançamento.

Torre de escape da Soyuz, embaixo, os motores de escape na carenagem. (Crédito: Roscosmos)

As conexões físicas prendendo a cápsula ao resto do foguete foram cortadas com dispositivos explosivos. Dois motores de escape foram acionados, de um lado da carenagem. 0.24s depois, os do outro lado também foram acionados, a diferença é para forçar a cápsula a uma trajetória lateral, não colidindo com o resto do foguete.

Mais uma vez, o sistema funcionou perfeitamente.

Enquanto isso, nos EUA...

No lado dos americanos, também havia idéias para melhorar a segurança dos astronautas. A maioria não muito eficientes. Gus Grissom voou na Liberty Bell 7, no Projeto Mercury, e como medida de emergência caso o pára-quedas da cápsula falhasse, perto da escotilha havia um pára-quedas pessoal.

Alguém na NASA realmente achou que durante uma queda descontrolada ele teria tempo de ejetar a escotilha, vestir o pára-quedas e saltar. Grissom respondeu de forma bem-humorada:

“Bem, ao menos vai me dar algo pra fazer até eu atingir a água”.

Alguém na NASA resolveu seguir a filosofia russa, as cápsulas do Programa Gemini não tinham além da torre de escape, mas assentos ejetores, como Gagarin. Os astronautas não botavam muita fé neles, John Young descreveu o sistema como:

“Uma morte provável pra escapar de uma morte certa”

Terem visto um teste onde a escotilha falhou em ser alijada, mas o assento ejetor disparou não ajudou muito na moral, e para o programa Apollo a NASA voltou para a boa e velha torre de escape.

Testada nos foguetes Little Joe, foram 5 lançamentos aperfeiçoando o sistema, mas o melhor de todos foi o que deu errado.

Um estagiário instalou errado os giroscópios, e logo após o lançamento o Little Joe começou a girar, a força centrífuga despedaçou o foguete, rompendo um dos três fios que percorriam todo seu comprimento. Romper esses fios acionava o sistema de escape, e a cápsula de demonstração foi arrastada para a segurança pelos poderosos motores da torre de escape.

Houston, temos um problema

A era dos Ônibus Espaciais foi um problema. O Enterprise e o Colúmbia tinham assentos ejetores, mas somente para o piloto e co-piloto. Quando a espaçonave foi declarada operacional e passou a levar até 8 tripulantes, se tornou inviável, não havia como instalar assentos ejetores no convés inferior, onde a maioria dos tripulantes viajava.

O Shuttle tinha um monte de planos de contingência, pistas de pouso alternativas, etc, mas nas fases iniciais da decolagem, era ou vai ou racha. Havia zero a ser feito se um dos motores de combustível sólido explodisse, por exemplo.

Depois do desastre da Challenger, a NASA criou vários planos fantasiosos, incluindo um sistema de escape onde a nave seria colocada em vôo planado estável, e os astronautas saltariam de pára-quedas usando um tubo-guia. Essa técnica é demonstrada no delicioso Space Cowboys.

Foi cogitada a idéia de transformar a cabine inteira em uma cápsula de escape, mas isso deixaria a nave pesada demais, e acidentes com o ônibus espacial envolvem forças muito grandes e frações de segundo, as chances de escapar, com ou sem cápsula são mínimas.

Hoje em dia a NASA continua confiando na torre de escape, o foguete SLS conta com uma boa e velha torre, e o teste, em 2019 foi danado de bonito:

Seguindo o caminho oposto, SpaceX e Boeing aboliram as torres. Seus sistemas de escape utilizam motores incorporados às cápsulas. O sistema da SpaceX foi testado em 2015:

O grande desafio agora é a Starship, a nave gigante da SpaceX. Ela é grande demais para sistemas de escape convencionais. Em teoria ela poderia usar seus motores para escapar em caso de algum problema no lançamento, mas seria muito, muito lento, impossível fugir de uma explosão.

A alternativa proposta pela SpaceX é investir em redundância e confiabilidade. Eles querem tornar seus foguetes tão confiáveis quanto aviões, o que soa impossível, mas se pesquisarmos, vamos descobrir que a versão Full Thrust do Falcon 9, colocada em operação em 2015 já realizou 155 lançamentos, todos bem-sucedidos. Em todas as suas versões o Falcon 9 já voou 178 vezes, tendo sofrido um acidente e um sucesso parcial. A versão mais recente coleciona 119 sucessos.

Óbvio que foguetes sempre serão mais perigosos do que aviões, mas é preciso que a indústria persiga essas metas de tornar os equipamentos mais seguros e confiáveis. O ônibus espacial tinha uma taxa de mortalidade de 2%. Se o 737 Max tivesse esse nível de periculosidade, o resultado seriam 26 acidentes por dia.

Esperemos que a SpaceX tenha isso em mente, enquanto testa a Starship, descobre seus limites e a torna blindada, segura e confiável como a Millenium Falcon, ou pelo menos a Planet Express.

Fontes:

 

O sistema de escape que salvou o foguete de Jeff Bezos

08 Sep 14:00

Richard Stallman Announces GNU C Language Reference Manual

GNU founder Richard Stallman has recently been working on crafting a GNU C Language introduction and reference manual...
29 Aug 01:16

Intel Arc Graphics A380: Compelling For Open-Source Enthusiasts & Developers At ~$139

Last week I outlined getting Intel Arc Graphics running on a open-source Linux graphics driver when using Linux 6.0 and later (along with a currently-experimental module option override) and then Mesa 22.2+. Now that I've had more days with the Intel Arc Graphics A380 as the company's budget discrete GPU, here are more of my thoughts on this graphics card that has begun retailing in the US for $139.
27 Jul 02:10

O Telescópio Espacial James Webb e a falta que um poeta faz

by Carlos Cardoso

James Webb é a maior obra de igreja da NASA, um projeto amaldiçoado por todo tipo de problema técnico e burocrático, um exemplo magnífico de como não tocar um projeto. Mesmo assim o resultado é magnífico.

James Webb, ainda na sala limpa. (Crédito: NASA)

A história do Telescópio Espacial James Webb começa lá no final dos anos 1990, quando a NASA parece ter aprendido com os erros do Hubble (spoiler: Não aprenderam) e criaram a filosofia de “mais rápido, melhor e mais barato”. Com isso em mente, surgiu em 1996 a proposta do NGST, Telescópio Espacial de Nova Geração, que em 2002 seria renomeado para James Webb, honrando o administrador da NASA durante os programas Mercury, Gemini e Apollo.

As especificações começaram a ser criadas, o James Webb seria um telescópio óptico, trabalhando na faixa do infravermelho, com uma missão de 5 anos, em uma órbita anular no ponto Lagrange 2, uma posição entre a Terra e o Sol onde a gravidade dos dois corpos se equivale, e um objeto precisa de pouca energia para corrigir as instabilidades naturais, e se manter na mesma posição.

O orçamento era astronômico. Quando o projeto foi entregue à TRW em 2007, a empresa que construiria o James Webb, foi paga uma entrada de US$1 bilhão, custo original do telescópio em 2003. Em 2007 o custo já estava em US$4,5 bilhões.

Depois do atraso original, o James Webb estava planejado para ser lançado em 2010, mas atrasos em cima de atrasos, renegociações, ameaças de cancelamento, burocracia, empresas contratadas não entregando o contratado e sendo punidas com mais prazo e mais dinheiro fizeram com que o custo do James Webb ultrapassasse US$10 bilhões, e ele só fosse lançado no Natal de 2021, de um Ariane 5 em Kourou, na Guiana Francesa.

O James Webb é uma maravilha tecnológica do ponto de vista mecânico, seu espelho de 6.5 metros humilha o de 2.4 metros do Hubble, ele consegue captar muito mais luz, e consegue fazer em horas observações que o Hubble precisava de dias.

Internamente, entretanto, o James Webb não é tão revolucionário. Seus instrumentos e computadores são baseados no RAD750, aquele processador Power PC da IBM, com clock máximo de 200MHz e que custa US$300 mil a unidade, por ser extremamente blindado contra radiação.

James Webb, comparado com o Hubble.

O James Webb roda VxWorks, um sistema operacional em tempo real, já o controle geral e das operações dos instrumentos científicos é feito através de algo bem mais familiar pro desenvolvedor comum: Javascript.

Isso mesmo, crianças. O Telescópio Espacial James Webb roda... Javascript. (cuidado, PDF)

Não que isso seja a maior surpresa.

James Webb sendo testado na câmara de vácuo (Crédito: NASA)

Quase todo mundo entende telescópios de forma errada. Estamos acostumados a ver o mundo pela perspectiva humana, então um telescópio é uma luneta, um binóculo, um dispositivo feito para enxergar objetos distantes.

Na escala humana isso faz sentido, mas em escala cósmica, telescópios enxergam mais que objetos distantes. Telescópios enxergam o passado, Um telescópio é uma máquina do tempo.

Até porque, a rigor, não existe “presente”. Toda nossa percepção ocorre no passado.

Coloque a mão sobre a chama de uma vela. Colocou? Meu, qual seu problema? Não é uma boa idéia fazer tudo o que um blog manda. Se queimou? Bem feito.

E para piorar, você só percebeu que se queimou depois que a chama ativou os receptores de calor e dor em sua mão, gerando um sinal eletroquímico que se move a velocidades rubinhescas. O sinal de dor por exemplo se desloca a 2.1km/h.

Já sinais nervosos dos sensores de toque se movem s 274Km/h. Por isso quando você dá uma topada, sente o dedo ser pressionado, dá aquela sugada de ar, se prepara e só após um ou dois segundos, a dor chega.

Nossa percepção do mundo é uma amálgama de sinais com vários delays, e a visão faz parte deles. Outro exemplo: estique seu braço esquerdo, com a mão espalmada para baixo. Fez?

Não acredito que caiu de novo. OK. Pegue um objeto qualquer, estique o braço, olhe para o objeto. Você o está vendo não como é, mas como era, 2.85 nanosegundos atrás. É o tempo que os fótons levam para saírem do objeto até atingir seus olhos.

NOTA: na verdade estou simplificando, há ainda o tempo de processamento do cérebro, mas você já entendeu.

Quando olhamos para a Lua, a estamos vendo pouco menos de um segundo no passado. O Sol está a 8 minutos e 20 segundos de distância da Terra, na velocidade da Luz. Se Q , Beyonder ou o Jack Kirby decidirem estalar os dedos e destruir o Sol, nós só saberíamos daqui a 8m20s. Talvez tenha acontecido neste exato momento. Que tal isso para a sua ansiedade?

No nosso Sistema Solar mesmo os mais distantes planetas estão relativamente próximos. Vemos Plutão como era 4.6 horas no passado, mas se mudarmos nosso foco para estrelas, enxergamos mais e mais. Proxima Centauri, a estrela mais próxima da Terra, fica a 4 anos e três meses-luz de nós. Outras estrelas estão a centenas, algumas a milhares de anos-luz da Terra.

Como bem disse o Dr Manhattan, tudo que vemos das estrelas são suas velhas fotos. Vemos supernovas que explodiram no passado distante, só agora sua luz chegando na Terra.

O azulão tá certo. (Crédito: DC Comics)

IC418 é uma nebulosa, resultado da explosão de uma gigante vermelha, em um cataclisma inimaginável, ejetando suas camadas externas, destruindo seus planetas e deixando apenas uma anã branca em seu centro.

IC418 explodiu pouco mais de 2000 anos atrás, mas se foi uma Estrela de Belém, o foi para outros mundos.

IC418, como era 2000 anos atrás. (Crédito: NASA/Hubble)

Andrômeda está a 2,5 milhões de anos-luz de distância da Terra. A luz que vemos hoje deixou Andrômeda quando ainda éramos todos Australopitecos.

Estudamos galáxias como eram no tempo dos dinossauros, mas o James Webb permitiu que enxergássemos muito, muito mais no passado.

Em algumas das primeiras imagens feitas com o telescópio, ele conseguiu vislumbrar galáxias 13 bilhões de anos no passado, no tempo em que o Universo era jovem, menos de um bilhão de anos após Seu surgimento.

Essas imagens são mais que puro conhecimento. Elas são incrivelmente belas. Dão uma tênue idéia da grandiosidade do Universo, da verdadeira escala cósmica.

Esta imagem é o aglomerado de galáxias conhecido como SMACS 0723. Fica a 4 bilhões de anos-luz da Terra. Cada ponto na imagem é uma galáxia, com bilhões e bilhões de estrelas. Incontáveis sóis, com incontáveis mundos, com os mesmos elementos componentes que nosso Sistema Solar.

SMACS 0723. Cada ponto é uma galáxia. As partes que parecem distorcidas são galáxias distantes sofrendo efeito de lente gravitacional, sua luz moldada pela gravidade de galáxias mais próximas. Clique para engrandalhecer. (Crédito: NASA/James Webb)

Quanto do Universo esses trilhões de mundos ocupam? Façamos um experimento (sem pegadinha) pegue um grão de areia. Estique seu braço, segurando o grão contra o céu. O espaço que o grão de areia ocupa no seu campo de visão equivale à área que SMACS 0723 ocupa no céu noturno.

O telescópio espacial James Webb é excelente para nos dar uma saudável dose de humildade. Difícil se sentir especial diante de um Universo tão grande, tão infinito no Espaço e no Tempo, mas por outro lado, se somos uma forma do Universo conhecer a si mesmo, estamos indo muito bem.

Gostamos de achar graça em como éramos primitivos, como nossas crenças arcaicas e desconhecimento do Universo faziam com que buscássemos explicações colocando a Terra no Centro do Universo, com meros 6000 anos de idade, e plana. Rimos, achando que isso é coisa da idade do Bronze, ou de 15 minutos atrás no Facebook, mas nosso conhecimento ainda é ínfimo.

Observamos os céus por milhares de anos, mas só recentemente conseguimos construir instrumentos capazes de enxergar além do limite de nossos olhos. Ninguém da antiguidade sabia da existência de qualquer planeta além de Saturno. Toda nossa ciência, todo nosso conhecimento astronômico acabava ali. Urano só foi descoberto em 1781, Netuno em 1846. Plutão? Suspeitava-se de algo, mas o futuro ex-planeta (Damn you NDT) só seria descoberto em 1930.

Hoje sabemos que moramos em uma de centenas de bilhões de galáxias, mesmo antes das imagens do James Webb, mas até a década de 1920, achávamos que o que hoje identificamos como galáxias eram nuvens, nebulosas, bem mais próximas. O Universo se resumia à Via Láctea.

Não seria de todo ruim, a Via Láctea é bem grande, e bonita. (Crédito: ESO/Y. Beletsky)

Com novas observações e equipamentos, ficou evidente que Andrômeda era uma galáxia, com bilhões de estrelas, confirmando a especulação de Immanuel Kant em 1775, que acreditava que a Via Láctea era um grande aglomerado giratório de estrelas, e que nebulosas e outros objetos eram, como ele definiu poeticamente, “universos-ilhas”.

Chamar galáxias de universos não é muito errado. Para todos os fins práticos, estamos completamente isolados. Andrômeda, que não é particularmente distante, fica a 2,5 milhões de anos-luz da Terra.

Em Star Trek a Enterprise consegue viajar em velocidade de Dobra 9, equivalente a 1516.38 vezes a velocidade da luz. Isso significa que ela chegaria em Andrômeda depois de 1673 anos de viagem. Viagens intergalácticas são totalmente impossíveis com nossa Física atual, e mesmo com a Ciência da Ficção Científica.

O que não nos impede de enxergar longe, muito além dos sonhos do mais desvairado autor de ficção científica.

Em meados do Século XIX, um padre e astrônomo italiano chamado Angelo Secchi dava os primeiros passos na consolidação da astronomia espectroscópica, a ciência de examinar a luz de objetos distantes, e através de lacunas em seu espectro visível, identificar elementos químicos em sua composição.

Isso é Ferro. Ao refletir luz, parte das frequências é absorvida, deixando lacunas no espectro, é uma impressão digital do elemento. (Crédito: Wikimedia Commons / Nilda)

Secchi criou vários instrumentos para analisar estrelas, planetas e o Sol, um de seus maiores interesses. Ele estudou detalhadamente erupções e manchas solares, montou expedições para observar eclipses e provou que as manifestações na coroa solar durante um eclipse eram parte do Sol, não aberrações ópticas.

Ele também estudou em detalhes a composição química da atmosfera dos planetas do Sistema Solar, através de seu espectro. Hoje estabelecida, essa técnica é usada para estudar a atmosfera de exoplanetas, mas o James Webb foi muito mais longe.

Secchi, homenageado pelo correio italiano (Crédito: Reprodução Internet)

Equipado com o estado da arte em espectrografia, o James Webb é extremamente sensível, e em uma de suas primeiras observações, focou-se em uma galáxia a incríveis 13.1 bilhões de anos-luz de distância, captando seu espectro e identificando os principais elementos em sua composição, no caso Hidrogênio, Oxigênio e Neon. Sim, é uma galáxia gamer.

Estamos identificando elementos a 13 bilhões de anos-luz de distância1 (Crédito: NAsA/James Webb)

Em outra observação, o James Webb se focou em NGC 7319, uma galáxia a 311 milhões de anos-luz da Via Láctea. A luz dessa galáxia deixou suas estrelas, em sua longa jornada até nós, quando a vida na Terra estava começando a dar os primeiros passos para fora dos oceanos, uma época ainda milhões de anos antes dos dinossauros, mas já repleta de tubarões.

Com sua capacidade de focar em regiões extremamente pequenas, o James Webb analisou a região em volta de um buraco negro em NGC 7319, achando silicatos, ferro, enxofre e outros materiais, mostrando que o buraco negro estava ocupado, devorando estrelas e planetas.

Apesar das imagens magníficas, o James Webb vai muito além delas. Uma rápida observação de WASP-96b, um exoplaneta a 1120 anos-luz da Terra revelou evidências de névoa e nuvens em sua atmosfera, além da presença de vapor d’água. Pense nisso: Nós conseguimos identificar água na atmosfera de um planeta tão longe que se uma nave partisse da Terra à velocidade da Luz, no ano 902, só estaria chegando lá hoje.

Elementos em volta de um buraco negro (Crédito: NASA/James Webb)

O James Webb é um triunfo não só da Ciência, mas da curiosidade humana. Nós conquistamos o planeta por causa de nossa curiosidade, nosso desejo insaciável de saber mais, de aprender, de descobrir o que há além da próxima montanha.

Nossos ancestrais observaram o Universo e criaram explicações. Aos poucos elas não se mostravam mais suficientes. Nosso conhecimento acumulado exigia melhores respostas, e depois de muita pesquisa, muitos erros, teorias erradas e hipóteses incompletas, as respostas foram aparecendo.

Somos um bando de macacos pelados, imperfeitos e desnecessariamente violentos, mas também somos capazes de feitos incríveis. Com poucas centenas de anos de Ciência Moderna, mesmo mal tendo saído da superfície do planeta, ainda engatinhando na exploração do Sistema Solar, conseguimos criar uma máquina que enxerga bilhões de anos no passado, espiando quase as portas da Criação.

Nebulosa Carina, um berçário de estrelas, a 7600 anos-luz da Terra (Crédito: NASA/James Webb)

Entre o nascimento de Angelo Secchi e o lançamento do James Webb há uma diferença de 175 anos. Menos de dois Séculos, entre um Universo centrado no Sol, sem galáxias, sem Plutão, com Netuno ainda uma grande novidade (foi descoberto em 1846), e um universo com bilhões de galáxias, incontáveis planetas, nebulosas, quasares, buracos negros, estrelas de nêutrons, anãs marrons, supernovas explodindo com mais energia do que a galáxia inteira.

Somos infinitamente pequenos diante desse Universo, mas ao mesmo tempo, nós O estamos entendendo. E é apenas o começo. Quais mistérios serão revelados pelos sucessores do James Webb, daqui a 20, 50, 500 anos? Impossível dizer, mas enquanto isso, temos as lindas imagens do passado distante, que maravilharam milhões e continuarão fazendo-o por anos.

Afinal, nas palavras do Irmão Guy Consolmagno, Diretor do Observatório do Vaticano...

“Essas imagens são um alimento necessário para o espírito humano – nós não vivemos só de pão – especialmente nos tempos atuais.”

O Telescópio Espacial James Webb e a falta que um poeta faz

11 Jul 00:53

UE aprova leis que regularão big techs a ferro e fogo

by Ronaldo Gogoni

Em uma votação que foi basicamente uma formalidade, o Parlamento da União Europeia (UE) aprovou a Lei de Mercados Digitais (Digital Markets Act, ou DMA) e a Lei de Serviços Digitais (Digital Services Act, ou DSA), duas novas legislações que regulam pesadamente a operação das principais big techs no mercado europeu.

A DMA estipula regras firmes sobre como empresas de tecnologia, em especial as externas ao bloco, atuam e competem nos países-membros da UE, enquanto a DSA define limites para produtos e serviços oferecidos no continente.

Sede do Parlamento Europeu em Estrasburgo, França (Crédito: Frederick Florin/AFP/Getty Images)

Sede do Parlamento Europeu em Estrasburgo, França (Crédito: Frederick Florin/AFP/Getty Images)

Ambos pacotes já haviam sido extraoficialmente aprovados por comitês, mas restava a votação oficial, realizada nesta segunda-feira (4). No entanto, o resultado já era mais que esperado: a DMA recebeu 588 votos a favor e apenas 1 contra, com 31 abstenções; já a DSA foi aprovada com 539 votos a favor e 54 contra, com 30 abstenções.

Na cerimônia, a membro do parlamento Christel Schaldemose, da Dinamarca, resumiu bem o sentimento geral dos políticos europeus, que não estão mais propensos a deixar as big techs atuarem como querem:

''As gigantes de tecnologia se beneficiaram da ausência de leis por tempo demais. O mundo digital se transformou no Velho Oeste, onde os mais fortes ditam as regras (...). Mas agora, há um novo xerife na cidade."

Vamos dar uma olhada nas novidades que a DMA e a DSA trarão, e quais serão as consequências não só para a Europa, mas também para a atuação das big techs no resto do mundo, Brasil incluso.

DMA: a lei antitruste

A Lei de Mercados Digitais foi originalmente proposta em dezembro de 2020, como parte do pacote prometido por Margrethe Vestager, comissária-geral de Competição no bloco europeu e vice-presidente executiva da UE. Ela é a mais notória persona non grata da Apple, Google e cia., graças aos inúmeros processos que moveu ao longo dos anos, para diminuir o poder de empresas externas e proteger as locais.

A DMA é essencialmente um pacote de regras antitruste, voltada especificamente para privilegiar o desenvolvimento de empresas de menor porte, mas também visa descer a marreta com força nas gigantes estrangeiras. Originalmente voltada a redes sociais, ela hoje abrange qualquer prestadora de serviços digitais.

Ficam sujeitas quaisquer companhias com capitalização de mercado a partir de €75 bilhões (~R$ 412,7 bilhões, cotação de 06/07/2022), ou com uma receita bruta anual superior a €7,6 bilhões (~R$ 41,8 bilhões), que forneçam pelo menos uma categoria de serviço de internet, podendo ser conexão, busca, streaming, armazenamento, etc.

Além disso, a DMA define como "gatekeepers" as empresas que além de atenderem os quesitos acima, contam com mais de 45 milhões de usuários ativos na UE por mês, e 10 mil usuários corporativos ativos por ano. Apple, Google, Meta, Amazon e Microsoft, as "cinco grandes" do cenário tech, bem como a gigante chinesa Alibaba Group, entre outras, se enquadram nesta categoria.

iPhone 11 Pro Max (Crédito: André Fogaça/Meio Bit)

iPhone 11 Pro Max (Crédito: André Fogaça/Meio Bit)

As empresas classificadas como "gatekeepers" serão as que sofrerão as mais pesadas regulações, tais como:

  • Proibição de privilegiar seus próprios produtos e serviços, mesmo em seu hardware (Safari como navegador padrão do iPhone, anúncios de produtos vendidos pela Amazon no site da empresa, banners de jogos de estúdios da Microsoft em destaque na dashboard de consoles Xbox. Nada disso pode);
  • Qualquer software que venha pré-instalado, seja em um computador, dispositivo móvel, console de videogame, etc., deverá oferecer ao usuário a opção de desinstalação, sem exceções;
  • Apps de mensagens deverão todos conversar entre si, e ficam proibidos de limitar recursos a plataformas e hardware específicos;
  • Empresas deverão ter acesso a todos os dados que geram em serviços fornecidos por "gatekeepers";
  • Proibição de uso dos dados de usuários europeus para exibição direcionada de anúncios, a menos que o indivíduo autorize, de forma explícita (provavelmente documentada, registrada, selada e carimbada).

De modo geral, a DMA vai definir normas estritas para companhias grandes não abusarem de seu poder no continente europeu, no que as gigantes, principalmente as externas, serão mais cobradas do que as outras.

Quem não se adequar poderá pagar multas de 10% do faturamento global anual vigente, a até 20% em caso de reincidência; se uma empresa continuar sistematicamente a burlar a DMA, ela será impedida de realizar aquisições de outras companhias.

DSA: transparência em serviços na UE

A Lei de Serviços Digitais é um complemento à DMA, voltada a cobrir e regular a prestação direta de serviços na Europa. Ela separa as companhias prestadoras em categorias, mas no geral, se enquadram na lei todo serviço que atender a partir de 10% da população local.

Por padrão, todas terão que cumprir com regras de transparência e proteção de dados, mas apenas as gigantes serão obrigadas a oferecer meios ara que o usuário opte por um sistema de recomendação não baseado em perfis, independente da plataforma. Em redes sociais, por exemplo, isso se reflete em postagens de feeds organizadas em ordem cronológica, uma antiga exigência do público.

Ao mesmo tempo, serviços não poderão classificar os usuários em "caixinhas", separando-os por gênero, etnia, religião, alinhamento político, etc., de modo a exibir postagens, anúncios e produtos mais alinhados com tais públicos, bem como a exibição de publicidade a menores de idade. Nenhum anúncio direcionado a esses públicos é permitido.

Fica também proibido o uso de "padrões sombrios", interfaces de uso confusas e enganosas, criadas para direcionar as escolhas do usuário, para induzi-lo a optar por algo que ele não queira, ou seja, desestimulado a prosseguir com um procedimento complicado, por exemplo, o de cancelamento de assinaturas. A partir de agora, o processo de encerramento de um serviço tem que ser tão simples quanto o de contratação.

iPhone com Busca do Google aberta no navegador Safari (Crédito: Ronaldo Gogoni/Meio Bit) / ue

iPhone com Busca do Google aberta no navegador Safari (Crédito: Ronaldo Gogoni/Meio Bit)

Serviços e plataformas serão obrigados a fornecerem dados a pesquisadores que os solicitarem, de modo a avaliar a evolução de riscos online, motivo pelo qual o Meta já se estranhou com cientistas, e estarão sujeitos a auditorias independentes anuais. Mercados digitais, por sua vez, ficam forçados a registrar informações básicas de vendedores em marketplaces, para facilitar a identificação e rastreio dos mesmos, em casos de reclamações ou transações ilegais.

O ponto mais crítico para algumas empresas, é a transparência forçada dos algoritmos de recomendação, no que elas serão forçadas a abrirem o acesso aos mesmo, e explicar como eles funcionam. Isso foi determinado para responsabilizar as empresas, mas significa que a UE poderá monitorar, e gerenciar, ferramentas como o Feed de Notícias do Facebook, o sistema de recomendação de conteúdos do Netflix, e os resultados de busca do Google, produtos que respondem por grande parte de suas receitas.

Em última análise, tais companhias poderão ser forçadas a compartilhar seus algoritmos, de modo a diminuir a competição desleal.

A criação de conteúdo por parte dos usuários também será responsabilidade das plataformas. Serviços não poderão apagar postagens de acordo com suas próprias definições do que pode e o que não pode, e serão forçadas a explicar seus motivos, bem como dar uma chance de apelação à remoção.

Ao mesmo tempo, elas não poderão manter o que a UE determinar que não deve ser compartilhado, indo ao encontro do entendimento de certas pessoas, que defendem "liberdade de expressão irrestrita e livre de consequências". A resposta deve ser a mais rápida possível, principalmente em casos de compartilhamento de Fake News e discursos de ódio, uma consequência direta da invasão da Rússia à Ucrânia.

As empresas que não cumprirem as regras estão sujeitas a multas de até 6% do faturamento global, e em casos de reincidência, ao banimento do serviço da UE.

E o Brasil?

Em termos gerais, mudanças nas leis da UE que envolvem a operação de companhias digitais causam impactos no resto do mundo, mesmo nos Estados Unidos, visto que a maioria das big techs prefere adequar suas diretrizes em escala global. Vide a GDPR.

Em paralelo, a DMA e a DSA podem e vão gerar discussões em diversos países, pela criação de leis e regulações semelhantes. O pacote europeu de regras citado, por exemplo, inspirou a criação da LGPD no Brasil, que também já discutiu sobre o acesso a mensagens protegidas por criptografia, um assunto que a UE está tratando à parte.

Fonte: European Parliament

UE aprova leis que regularão big techs a ferro e fogo

11 Jul 00:39

Finlândia testa uma bateria gigante feita de... areia

by Carlos Cardoso

Bateria é meio que um tema tabu aqui no Meio Bit, depois de todos esses anos nessa indústria vital ficamos escolados com avanços revolucionários e tecnologias que trarão uma utopia em seis meses, se não chover, por isso não cobrimos esses hypes, mas no caso não há nada de hype. Ou revolucionário. Apenas, uma boa ideia.

Ah não, matéria de bateria? (Crédito: MGM Studios)

Filosoficamente uma bateria é um dispositivo capaz de armazenar energia, em geral convertendo de uma forma para outra. Uma bateria como a pilha do seu Hitachi converte energia química em energia elétrica. Uma caixinha de música armazena energia mecânica, do mecanismo de corda.

A principal vantagem das baterias é que elas permitem que acessemos energia de forma rápida e conveniente, o grande calcanhar de Aquiles das fontes de energia ditas “verdes”, “alternativas” ou seja lá como a Greta chame.

A curva de geração de energia de fontes como solar e eólica não é constante, se o tempo estiver fechado, a geração cairá MUITO no caso da solar. Tempestades, calmarias ou mesmo época do ano afetam a capacidade da energia eólica, e para piorar essas variações nunca batem com as curvas de consumo.

Durante o dia na maioria das cidades o consumo geral cai, com as pessoas na rua trabalhando. Quando chegam em casa, todo mundo ligando ar-condicionado e micro-ondas joga o consumo pras alturas. Nos Estados Unidos o pesadelo das operadoras de energia é a final do Superbowl, com milhões de pessoas levantando no final e usando seus fornos.

Esse pico de consumo é atendido por geração nuclear e termoelétrica, fontes capazes de suprir energia sob demanda, em variações rápidas. Se quisermos abandonar a geração termoelétrica sem aumentar a nuclear (o que seria um erro, a nuclear é de longe a melhor) temos que suprir o pico, compensando o que as gerações alternativas não conseguem.

Isso é possível com bancos de baterias capazes de despejar toneladas de megawatts na rede.

De noite é só pista de pouso pra mosquito (Crédito: Pixabay)

Essas baterias também trazem uma grande vantagem: Ao contrário dos painéis solares, elas funcionam durante a noite, sendo usadas em escala doméstica já faz algum tempo. A própria Tesla vende a PowerWall, um kit de baterias que é recarregada durante o dia, nos horários em que a eletricidade é barata, e nos horários de pico ela alimenta a casa, evitando que você use energia cara da rede.

A parte ruim é que fazer isso em grande escala com baterias de Lítio é proibitivamente custoso. Qual a alternativa? Bem, existem várias. Uma das mais legais, óbvias, mas limitadas geograficamente é construir reservatórios em morros. Durante o dia você usa energia barata da rede (ou de fontes alternativas) para bombear água para o reservatório. Durante a noite, você abre as torneiras, a água gira turbinas e você obtém energia a um custo menor do que a da tomada.

Há um geradorzinho feito por uma dessas ongs descoladas onde uma garrafa pet com água é erguida pelo usuário (aqui é blog de tecnologia todo mundo é usuário) até uma certa altura, a gravidade puxa a garrafa, o que gira um dínamo, carrega uma bateria e acende uma lâmpada. É pouco, mas suficiente para uma criança estudar durante a noite.

Além de tudo a tal Powerwall é danada de bonita (Crédito: Tesla)

Outra forma de armazenamento de energia é mecânico, com um equipamento que é essencialmente um motor elétrico, dentro de uma câmara de vácuo. O rotor é projetado para ser especialmente pesado. Com energia da rede, ele é acelerado, e como está no vácuo, com rolamentos especiais anti-atrito, ao desligar a eletricidade, as Leis de Newton fazem com que ele continue girando, quase sem desacelerar. Quanto mais energia elétrica, mais velocidade, aumentando a energia cinética do rotor.

Se aplicarmos uma carga aos terminais do motor, ele se transforma em um gerador, a energia cinética vira eletricidade, e o equipamento vira uma bateria.

Também existem equipamentos que armazenam energia na forma de ar comprimido, no mesmo esquema: Energia barata aciona o compressor, o tanque é cheio, de noite o ar é usado para girar um gerador.

O problema desses equipamentos é que assim como Ruby, eles não escalam. Também são de manutenção cara e constante. Quanto menos partes móveis, melhor, e essa técnica usada na Finlândia pela Polar Night Energy é ótima nesse quesito.

Eles decidiram pela técnica de armazenar energia térmica. Há quem faça isso com água, óleo e até sal, mas lidar com vapor em alta pressão é ruim e perigoso, e sal derretido tem a desvantagem de ser altamente corrosivo. Metais líquidos ou se solidificam cedo demais, ou fervem cedo demais.

Era preciso um material que agüentasse altas temperaturas, de até 1000 graus sem mudar de estado ou alterar sua composição química. Eu não gosto de areia. É áspera, incomoda, irrita e entra em tudo que é lugar, mas admito que ela é excelente para esse serviço.

O silo de areia da Polar (Crédito: Polar)

Areia é usada desde tempos imemoriais como molde para metalurgia, você pode derramar ferro líquido e a areia nem tchuns. Os pequenos cristais de quartzo agüentam calor como campeões.

Sabendo disso, o pessoal da Polar montou um silo com capacidade de armazenar 100 toneladas de areia. Com aquecedores e trocadores de calor, eles conseguem aquecer a areia a algo entre 600C e 1000C, e com isolamento o tanque mantém a temperatura por meses e meses.

Esse equipamento, o primeiro em uso comercial da Polar foi instalado em uma unidade da Vatajankoski, uma operadora de energia em Kankaanpää, Finlândia. Ele consegue prover 100kW em capacidade de aquecimento, com capacidade de 8 MWh.

Eles possuem uma unidade piloto em Hiedanranta, com capacidade de 3 MWh, que está sendo usada para prover aquecimento para dois prédios, enquanto fornece dados de uso e performance para a Polar.

Diz a empresa que uma unidade em grande escala conseguiria uma potência nominal de 100 MW, capacidade de até 20 GWh, com eficiência de até 99%. O custo é menos de 10 Euros por kWh de energia armazenada.

Depois de tantos projetos mirabolantes, tantas rodas reinventadas e idéias que dependem da utilização de Inobtanium, Matéria Escura e kryptonita Rosa, tudo misturado com grafeno e nióbio, é reconfortante ver uma proposta tão... mundana.

É apenas um problema de engenharia, e nenhum problema de engenharia é insolúvel se você tiver dinheiro suficiente. Armazenar energia utilizando temperatura é algo intuitivamente simples, os próprios finlandeses vêm fazendo isso faz tempo, aquecendo pedras em fogueiras e levando para dentro de suas saunas. Usar areia é um salto genialmente simples, com zero emissões tóxicas, sem manufaturas complexas e que em caso de acidente, o maior incômodo vai ser afastar os gatos locais curiosos pelo novo banheiro público.

Finlândia testa uma bateria gigante feita de... areia

25 Jun 22:02

LCD vs. LED vs. Mini LED vs. OLED: A quick guide

by Scharon Harding
Magnifying the differences, similarities, pros, and cons.

Enlarge / Magnifying the differences, similarities, pros, and cons. (credit: Aurich Lawson)

Somewhere along the line, consumer display technology became an alphabet soup full of terms using the letters "LED."

In this succinct guide, we'll provide a brief overview of common initialisms found in the world of TV, PC monitor, and laptop displays. To keep things simple, we'll focus on how each technology impacts expected image quality. Whether you're looking for a handy refresher for the next time you're shopping or a quick, digestible guide to give to inquisitive friends and family, we've got you covered.

LCD

You're likely reading this article on a liquid crystal display (LCD). "LCD" refers to any display type that uses liquid crystals, including TN, IPS, and VA (which we'll get into shortly). Even an old-school calculator or digital watch can use an LCD. But a simple "LCD" designation doesn't tell you how a screen will perform. You need more information, like the backlight type the panel uses—usually LED, followed by the more expensive Mini LED.

Read 22 remaining paragraphs | Comments

18 Jun 21:00

Maureen Flavin, a jovem que adiou o Dia D

by Carlos Cardoso

663 anos antes do Dia D, o mundo veria uma invasão semelhante. Era o ano de 1281 e o Japão não pensava em nada além da inevitável derrota nas mãos do Império Mongol de Kublai Khan.

Invasão mongol impedida por intervenção divina (Crédito: Issho Yada, circa Sec XIX)

Os mongóis tentavam pela segunda vez invadir o Japão, desta vez com todas as forças que conseguiram arregimentar. Relatos falam de 4400 navios e 140 mil homens, um número que só seria superado no Dia D, 6 de junho de 1944.

Em um daqueles eventos aleatórios que mudam a História, a frota mongol foi apanhada por um tufão, que dizimou completamente os invasores. Dizem que somente algumas centenas de navios sobreviveram, e mais da metade dos homens morreram afogados. Os que chegaram a terra foram despachados pelos samurais.

No imaginário popular o Japão foi salvo por intervenção divina. Raijin, o equivalente a Thor no Xintoísmo mandou a tempestade e exterminou o inimigo com seu vento divino. Em japonês, KamiKaze (神風).

Raijin, o Deus do Trovão. Escultor anônimo, circa Sec XIII (Crédito: Wikimedia Commons)

Nas vésperas do Dia D, o General Einsehower não estava interessado em repetir o destino dos mongóis, uma lição há muito aprendida, por todo mundo envolvido em guerra. O clima era um fator essencial, e deveria ser levado em conta em todo e qualquer planejamento.

Um fato interessante é que a velha história de que Hitler foi burro por invadir a Rússia no inverno é uma bobagem. Hitler não foi burro, foi otimista e teimoso, ele invadiu a Rússia 22 de junho, em pleno verão. Os russos é que não colaboraram e a operação foi se esticando, e quando viram não tinha mais ferrovia ou estrada pra mandar casaquinhos pros chucrutes.

A meteorologia era fundamental para todos os envolvidos, e verdadeiros feitos de magia tecnológica foram criados para obter essas informações. Os nazistas construíram e instalaram estações meteorológicas autônomas, com instrumentos para medir temperatura, pressão atmosférica, umidade, velocidade e direção do vento e outros parâmetros.

Estação Meteorológica Automática Kurt (Crédito: Bundesarchiv)

Os dados eram coletados e transmitidos automaticamente. Isso em uma época completamente analógica, e em que a tecnologia mais avançada era uma válvula.

Mesmo assim as estações funcionavam de forma totalmente autônoma, com baterias para seis meses. Uma delas, a Estação Kurt, foi instalada por um submarino nazista na península de Labrador, no Canadá, e só foi descoberta em 1977. Os caras tiveram o requinte de espalhar maços de cigarros americanos pelo local, e escrever “Canadian Meteor Agency” em um dos cilindros da estação, para caso alguém a descobrisse, achasse que era uma estação aliada.

Os aliados tinham seus próprios meios de obter dados, incluindo uma rede altamente capilarizada de postos de observação espalhados por todos os territórios a que tinham acesso.

Esses dados, fundamentais para todas as operações e principalmente para o Dia D, eram concentrados e tabulados pelo grupo de meteorologistas comandados pelo Coronel da RAF James Stagg, e ele viu que o tempo estava para piorar bastante nos próximos dias.

Carta meteorológica para 4 de junho de 1944. (Crédito: Serviço de Meteorologia do Reino Unido)

Com a invasão do Dia D planejada para a madrugada de 4 para 5 de junho, se ela fosse adiada mais que alguns dias, os Aliados perderiam a Lua Cheia, as marés ficariam desfavoráveis, o clima seria tempestuoso e nem queira saber o que o horóscopo indicava.

Nada poderia parar a maior operação anfíbia da História da Humanidade, cada minuto adiado Hitler poderia descobrir os planos aliados. Somente um motivo de força maior adiaria o Dia D.

O motivo de força maior estava celebrando 21 anos, naquele dia 3 de junho de 1944, ele, ou melhor, ela se chamava Maureen Flavin Sweeney e era filha do faroleiro do farol Blacksod, no condado de Mayo, na Irlanda.

Maureen Flavin Sweeney e o Farol de Blacksod (Crédito: Editoria de arte)

Como parte do esforço de guerra, eles foram incumbidos de registrar dados barométricos em intervalos de uma hora, e de tempos em tempos enviá-los via telégrafo para Londres. Era isso que Maureen fazia, meticulosamente anotando os dados.

As medições enviadas no dia anterior foram tabuladas, e 1AM do dia 3, James Stagg mandou seu staff confirmar os dados. Assim que amanheceu, o telefone tocou e Maureen atendeu uma moça com sotaque inglês pedindo para ela conferir os dados, e repeti-los, por telefone mesmo.

Confirmados os dados, Stagg viu que uma tempestade se aproximava, e iria kamikazear a frota invasora, o que não é bom quando você é a força invasora. Ele convenceu Eisenhower, que ignorou os dois grupos de meteorologia americanos que insistiam que estava tudo bem pro dia 4.

É impossível capturar em uma imagem a escala da Operação Neptune, a fase naval do Dia D (Crédito: Marinha Real)

Stagg afirmou que seus dados previam uma aliviada na tempestade no dia 6, e Eisenhower adiou o Dia D por 24 horas. No dia 4 uma tempestade assolou o Canal da Mancha, e seria virtualmente impossível desembarcar.

Por anos Maureen Flavin Sweeney não teve idéia da importância de suas leituras, mas com o tempo o reconhecimento começou a acontecer. Em 2021, aos 98 anos ela recebeu uma homenagem especial do Congresso dos Estados Unidos, por seu serviço na Guerra.

Maureen, devidamente homenageada. (Crédito: Reprodução Internet)

A lição foi mais que aprendida. Os Estados Unidos investem bilhões em meteorologia, as forças armadas da maioria dos países possuem serviços meteorológicos próprios, e conhecimento do clima e previsão do tempo é fundamental para toda e qualquer operação militar. Ignorar a meteorologia ao iniciar uma operação militar, só se o sujeito for muito mongol.

 

Maureen Flavin, a jovem que adiou o Dia D

13 Jun 17:21

As mudanças que tornaram o Pokémon um jogo melhor

by Dori Prata

Lançada para o Game Boy em 1996, a franquia Pokémon se tornou uma das mais bem sucedidas não só da indústria de games, mas do entretenimento como um todo. O que nem todos sabem, no entanto, é que até uma boa parte do seu desenvolvimento, aquele jogo poderia ter sido bem diferente do que acabamos recebendo.

Pokémon

Crédito: Reprodução/Erik Mclean/Pexels

Em mais um excelente minidocumentário, o canal DidYouKnowGaming? vasculhou o passado da tão adorada série dos monstrinhos e reuniu algumas informações interessante sobre a sua produção. Entre elas está a ideia do primeiro título contar com muito mais do que apenas as duas versões (Red e Green) que acabaram chegando às lojas.

De acordo com o programador Takenori Oota, as variações seriam associadas a identificação que recebemos quando iniciamos uma campanha no primeiro Pokémon, o Trainer ID que é gerado aleatoriamente e que poderia ir até 65.535. Se o conceito tivesse sido implementado, os monstros que encontraríamos pelo caminho e até os cenários seriam alterados de acordo com o número que estivéssemos usando.

Porém, mesmo com as IDs aleatórias mantidas na versão final, ela tem pouca influência na experiência e conforme explicou Satoshi Tajiri, fundador do estúdio que desenvolveu o jogo, o Grame Freak, a mudança aconteceu após a recomendação de uma pessoa muito importante:

“[...] atribuímos aleatoriamente números de identificação gerados automaticamente, indo de 1 a 65 mil em cada cartucho de jogo. Com a ID dos cartuchos determinadas, os Pokémons capturados nesses jogos carregariam aquele número e desde que alguém não tivesse trocado com outras 65 mil pessoas diferentes, as chances de negociar com alguém com a mesma ID eram improváveis

O formato de uma floresta, os Pokémon que poderiam aparecer, eu queria fazer um jogo que fosse diferente para todo mundo, mas era difícil. Então fui consultar Shigeru Miyamoto, da Nintendo, e acabamos decidindo fazer com que dependesse da cor — vermelho ou verde — os mundos serem paralelos, mas diferentes.”

Crédito: Reprodução/Ace of Sevens/MobyGames

Mas apesar de a ideia de fazer com que cada jogo fosse (praticamente) único possa parecer tentadora, Tajiri admitiu que explicar esse conceito para o jogador não seria muito fácil e foi aí que entrou a sensibilidade de Miyamoto. Para o criador do Mario, as pessoas precisavam conseguir diferenciar um jogo do outro apenas pela cor ou formato, o que os levou ao Pokémon Red e Pokémon Green — com o Blue sendo lançado alguns meses depois no Japão e tendo substituído no Green nos Estados Unidos.

Com cada versão contando com alguns monstrinhos exclusivos, a Game Freak estabeleceu um dos pilares da série, além de incentivar as pessoas a comprarem um cabo que permitia a conexão entre dois Game Boy. O cabo ainda possibilitava outro recurso que inicialmente não estava previsto, o multiplayer.

Apesar de permitir batalhas entre os jogadores fosse um desejo de Satoshi Tajiri, o produtor Shigeki Morimoto relutou por muito tempo a aceitar isso. Para ele, além do multiplayer ser algo que não considerava interessante, havia o temor de que seria muito complicado de implementar. Assim, ele fez o que muitos líderes de projeto fariam: fingiu que não estava ouvindo e seguiu ignorando o pedido.

A situação só mudaria quando a própria Nintendo exigiu que as batalhas entre jogadores fossem implementadas. Contudo, com o tempo para o desenvolvimento se esgotando, a equipe criou uma versão bastante rudimentar do multiplayer, onde as batalhas aconteciam automaticamente e os jogadores só podiam assisti-las. Sem uma maneira de influenciar os combates, os resultados eram aleatórios e a ideia não agradou.

“Mostramos aquilo para a Nintendo e as pesquisas que recebemos de volta o chamaram de ‘tedioso’,” revelou Morimoto. “Acredito que eles estavam corretos, mas estávamos perto do prazo final, tentando adicionar batalhas que os jogadores comandavam.”

Crédito: Reprodução/Ace of Sevens/MobyGames

Se essas mudanças de percurso não tivessem sido implementadas, pelo menos o primeiro capítulo da série Pokémon teria sido bastante diferente e fica difícil saber até se ele teria feito tanto sucesso. Agora, imagine não precisar caçar os monstrinhos, com eles estando disponíveis nas lojas ou podendo ser adquirido de outros jogadores. Pois isso poderia ter acontecido.

Mesmo com um ou outro podendo ser comprado na versão final, Tajiri disse que o que os levou a desistir dessa ser a proposta central do jogo foi a percepção de que as pessoas estavam preferindo economizar dinheiro in-game a explorar o mundo enquanto tentavam capturar Pokémon e assim aumentar sua coleção. Eles cogitaram até cobrar uma taxa virtual para cada troca entre os jogadores, mas devido à limitação do hardware, preferiram eliminar essa possibilidade.

Com mais de 440 milhões de cópias vendidas, hoje essas ideias podem parecer bastante absurdas, mas precisamos considerar que na época o pessoal da Game Freak ainda estava conhecendo um terreno inexplorado. Quando o primeiro Pokémon foi lançado, não existia nada parecido no mercado e por isso chega a impressionar o estúdio não ter cometido erros muito significativos.

Parte disso certamente se deve a ajuda da Nintendo e de figuras como Shigeru Miyamoto, mas também ao próprio talento daqueles que estavam diretamente ligados ao projeto. O resto é história.

As mudanças que tornaram o Pokémon um jogo melhor

06 Jun 17:30

Russos usando componentes comerciais em seus mísseis

by Carlos Cardoso

Os russos estão usando seu armamento mais moderno na Ucrânia, o que está sendo um presente de Natal antecipado para os EUA, OTAN e todo mundo que tenha curiosidade sobre a elusiva tecnologia bélica de Putin e seus amigos.

Bombardeiro russo Tu-160 lançando um míssil Kh-101 (Crédito: Reprodução Internet)

Sendo honesto essa guerra está sendo ótima para os dois lados, vide a quantidade de equipamentos de ponta capturados por russos e ucranianos. Algumas vezes sistemas inteiros caem nas mãos do inimigo.

Existem várias formas de espionagem industrial/militar, na Segunda Guerra Mundial espiões poloneses capturaram planos das máquinas Enigma e entregaram para os ingleses, que mais tarde conseguiram colocar as mãos em uma unidade inteira.

Também nos anos 1940 espionagem era praticada abertamente por velhinhas belgas, que ficavam em suas varandas, tricotando e observando os trens passando com tropas e veículos alemães. Elas “erravam” propositalmente um ponto, para sinalizar o tipo de carga e trem. Mais tarde as roupas eram vestidas por outros agentes que chegavam aos Aliados.

Quando armas caíam em mãos inimigas, bombas voadoras que não explodiam, aviões que pousavam sem explodir, era só alegria nos laboratórios que destrinchavam os equipamentos, descobriam como eles funcionavam e aproveitavam as boas idéias.

Spitfires Mustangs ingleses capturados e pintados com as cores do Reich (Crédito: Domínio Público)

Para evitar isso valia tudo, oficiais da Kriegsmarine eram instruídos a destruir as máquinas Enigma caso fossem abordados ou forçados a se render, e os aliados, que haviam desenvolvido equipamentos primitivos de radar Interrogate: Friend or Foe, para diferenciar amigos de inimigos, tinham botões de autodestruição dos rádios, caso o piloto fosse obrigado a abandonar a aeronave.

Botão duplo (para evitar acidentes) de destruição dos rádios IFF britânicos (Crédito: RAF)

Algumas vezes a xerocada acontece até entre amigos de conveniência. Durante a 2ª Guerra Mundial alguns bombardeiros B-29 americanos tiveram que pousar na União Soviética. Foram bem-recebidos, mas enquanto isso os engenheiros da Tupolev examinaram cada centímetro do avião, que era tecnologia quase de ficção científica, na época.

O resultado foi o Tu-4, um avião que é uma cópia IDÊNTICA do B-29, a ponto dos pedais terem “BOEING” em alto-relevo, pois os russos não quiseram mudar nada. Até o ferramental foi adaptado para usar medidas imperiais.

Em 1958, durante um arranca-rabo entre Taiwan e China, os americanos mandaram para Taiwan mísseis Sidewinder, recém-desenvolvidos, muito mais avançados do que qualquer coisa no arsenal russo. Infelizmente um deles não explodiu, ficou alojado em um MiG chinês, que conseguiu voltar para casa. Em alguns dias o míssil estava em Moscou, e em três anos os russos lançavam seu próprio míssil, o ATOLL. Na foto abaixo, os dois.

Um é o ATOLL, o outro o Sidewinder. Kibe? Não, magina (Crédito: Contraditorium)

Óbvio que os russos também tinham muitos programas originais, o próprio foguete Vostok que lançou Yuri Gagarin era um míssil balístico intercontinental, com tecnologia 100% russa, e uma ajudinha de ex-cientistas nazistas, mas até aí todo mundo fez isso.

Mesmo assim a tecnologia russa nunca foi “de ponta”, eles são ótimos em construir máquinas pé-de-boi, que agüentam muita pancada, mas não são exatamente sofisticadas. O ponto fraco deles sempre foi a eletrônica, e mais tarde, o software, que o digam os sistemas antiaéreos do Moskva.

Por isso não foi muita surpresa quando apareceram unidades de controle de mísseis de cruzeiro russos Kh-101, e elas não eram exatamente high-tech. Projetado em 1971, o míssil com codinome na OTAN AS-15 "Kent", dependendo da versão pode ter alcance de até 3000 km carregando uma ogiva termonuclear ou convencional. Por enquanto na Ucrânia os russos estão usando convencionais.

Tupolev Tu-95 "Bear", carregando uma penca de Kh-101s (Crédito: Mod Rússia)

Como quase tudo da época, o Kh-101 era totalmente analógico, o que surpreendeu é que mesmo nas versões mais modernas, ele continua sendo. Os mísseis capturados foram examinados e suas unidades de navegação usam os mesmos componentes pré-históricos dos Anos 70, basicamente barro fofo e pedra lascada.

Outros equipamentos russos capturados revelaram informações mais suculentas ainda.

Placa do sistema de navegação de um Kh-101 capturado. (Crédito: Ministério da Defesa da Ucrânia)

Normalmente equipamentos militares são construídos com componentes robustos, caros que só eles, preparados para resistir a condições bem mais severas do que os chips do seu Hitach Magic Wand.

No caso dos equipamentos russos, como os sistemas antiaéreos Pantsir-S1, ou o veículo de comando e controle de defesas aéreas Barnaul-T, os ucranianos se surpreenderam.

Nos bons e velhos tempos os russos se gabavam de sua superioridade e independência do Ocidente, agora optaram pelo caminho mais fácil, e só o Barnaul-T, acharam chips feitos pela Intel, Micrel, Micron Technology e Atmel Corp.

Segundo o War Zone, na versão modernizada do Míssil Kh-101, o que não era tecnologia dos Anos 60, era feito com chips da Texas Instruments, Atmel Corp. Rochester Electronics, Cypress Semiconductor, Maxim Integrated, XILINX, Infineon Technologies, Intel, Onsemi, e Micron Technology.

Uma das placas de um Barnaul-T capturado. Bem mais decente, mas cheia de componentes civis (Crédito: MOD Ucrânia)

Nenhum desses chips tem certificação militar, são componentes que qualquer um compra na Internet, e com ou sem embargo, são encontrados em qualquer lugar, principalmente na China, com uma imensa indústria de reciclagem de componentes eletrônicos.

Há relatos de que os russos estão canibalizando eletrodomésticos importados, como máquinas de lavar, para obter componentes para seus mísseis e sistemas bélicos. É uma interessante inversão da clássica passagem, dessa vez estão transformando arados em espadas.

Componentes reforçados para uso em aplicações militares. (Crédito: Carlos Cardoso)

Não seria a primeira vez. Reza a lenda que por volta da virada do Século, Saddam Hussein teria comprado 4000 Playstations 2, que seriam usados como máquinas Linux em cluster, para todo tipo de computação maligna, como cálculos para armas nucleares.

Saber que os russos estão usando chips comerciais em seus equipamentos é mais que uma curiosidade, é uma informação estratégica. Esses chips são muito mais vulneráveis a todo tipo de interferência, e têm suas capacidades bem conhecidas. É só saber explorá-las.

Russos usando componentes comerciais em seus mísseis

31 May 18:01

Intel Announces Rialto Bridge As Ponte Vecchio Successor, Talks Up Falcon Shores & DAOS

Intel is using ISC 2022 this week in Hamburg, Germany to provide an update on their Super Compute Group road-map and the efforts they are pursuing both in hardware and software for a sustainable, open HPC ecosystem.
23 Apr 17:10

Family Reunion

Grandma says that because of differences in primate and feline lifespans, the cat is actually my 17,000,000th cousin 14,000,000 times removed.
16 Apr 00:48

Graphic Designers

They might make it past that first line of defense. For the second, you'll need some picture frames, a level, and a protractor that can do increments of less than a degree.
16 Apr 00:40

Rest and Fluids

Remember not to take it easy. Put a hot washcloth on your forehead, remain standing, and breathe dry air while taking lots of histamines. You need to give your body a chance to get sick again.
16 Apr 00:40

Tractor Beam

Did you base the saucer shape on pop culture depictions of aliens, or was that stuff based on your ships? Does the rotational symmetry help with ... hey, where are you going?
07 Oct 06:14

"Intel Software Defined Silicon" Coming To Linux For Activating Extra Licensed Hardware Features

There has been talk of Intel moving to offer more license-able/opt-in features for hardware capabilities found within a given processor as an upgrade. We are now seeing the Linux signs of that support coming with a driver for "Intel Software Defined Silicon" to allow for the secure activation of such features baked into the processor's silicon but only available as an up-charge option...
15 Sep 23:53

Vaccine Research

Honestly feel a little sheepish about the amount of time and effort I spent confirming "yes, the vaccine helps protect people from getting sick and dying" but I guess everyone needs a hobby.
07 Sep 19:22

Recreate the Conditions

We've almost finished constructing the piña collider.
07 Sep 19:22

Modern Tools

I tried to train an AI to repair my Python environment but it kept giving up and deleting itself.
10 Aug 23:09

Abandonment Function

Remember to only adopt domesticated drones that specifically request it. It's illegal to collect wild ones under the Migratory Drone Treaty Act.
03 Aug 06:14

Mine Captcha

This data is actually going into improving our self-driving car project, so hurry up--it's almost at the minefield.
30 Jul 05:01

Universal Seat Belt

The plug fits really snugly, so it should be safe in a crash.
08 Jul 05:07

Colorindo texto

by Andre Noel
tirinha
Inclua essa tirinha em seu site
COLE ESSE CÓDIGO EM SEU SITE x
Fonte: Vida de Programador
Transcrição ↓

real historia;
string sender = "Alex K";

(Em tempos de eterno home office...)
Esposa: Oi, amor! O que você está fazendo??
Programador: Trabalhando...
Esposa: Ué, mas alguém te paga só pra ficar colorindo texto?
Programador: PLOFT!
--
Camiseta: O amor tudo suporta

O artigo "Colorindo texto" foi originalmente publicado no site Vida de Programador, de Andre Noel.

08 Jul 05:04

Linked List Interview Problem

I'd traverse it myself, but it's singly linked, so I'm worried that I won't be able to find my way back to 2021.
24 Jun 21:03

It haunts us

by CommitStrip
15 Jun 06:16

SpaceX pousa com sucesso a Starship (sem explodir)

by Carlos Cardoso

A SpaceX pousar a Starship com sucesso é jornalisticamente um paradoxo; ao mesmo tempo que era inevitável, não deixa de ser notícia. Talvez o fato mais memorável esteja sendo ignorado pela imensa maioria das reportagens noticiando o feito: A velocidade com que a SpaceX saiu de uma caixa d’água para uma nave capaz de pousar em segurança.

Starship SN9 (Crédito: SpaceX)

Tecnicamente a Starship está em desenvolvimento desde 2012, mas era apenas um projeto terciário na SpaceX. Somente em 2017 eles conseguiram acumular especificações o suficiente para apresentar um projeto definido ao mundo. Em 2018 foi dada prioridade, com aumento de verba e equipe, projetando o que seria o Big Falcon Rocket.

O BFR usaria os motores Raptor, bem maiores mais poderosos e mais complicados que os Merlins do Falcon 9. Só o desenvolvimento do Raptor consumiu boa parte do tempo e dos recursos da SpaceX.

A SpaceX planejava construir o BFR e seus tanques de combustível usando fibra de carbono, mas o material se mostrou um inferno pra ser manipulado, e uma guinada completa foi feita: O BFR agora seria feito de metal, e nada exótico. O bem e velho aço inox, em uma liga própria.

Em Abril de 2019 a SpaceX apresentou o que talvez seja o foguete mais feio do Universo, o Starhopper. Ele é uma base de testes para os materiais de construção e os motores Raptor. Depois de alguns saltos, em Agosto do mesmo ano o Starhopper fez um vôo de 150 metros de altitude, provando que o Raptor era confiável e controlável.

Essa velocidade tem a ver com a metodologia de desenvolvimento da SpaceX. É algo impensável para a NASA, China, basicamente para todo mundo. Eles resolveram que todas as empresas e governos do planeta estão desenvolvendo foguetes errado, e o pior é que pelo visto estão certos.

Quer dizer, se você tem tempo e dinheiro infinitos, pode se dar ao luxo de aplicar todos os protocolos de testes, projeto, especificar cada parafuso e cada interação. Toda falha é uma pisada no freio enquanto o projeto inteiro é reavaliado. É assim que a Blue Origin está projetando o New Glenn e o New Sheppard, é assim que a ULA projetou todos os seus foguetes, e está projetando o Vulcan.

Já A SpaceX trabalha com a filosofia de resolução de problemas. É relativamente seguro dizer que Elon Musk nem ninguém na empresa tem a menor idéia de como serão as acomodações da Starship tripulada. O mecanismo de reabastecimento em órbita? Talvez esteja desenhado em algum guardanapo preso na parede de um engenheiro.

Ao invés de resolver todos os problemas, projetar e especificar todos os circuitos e sistemas, eles vão resolvendo um de cada vez, e bem rápido.

Foi assim com o Falcon 9. Eles queriam desde o começo reutilizar o foguete, mas primeiro construíram um capaz de colocar cargas em órbita. Feita essa parte, passaram a testar o resto. Primeiro com manobras orbitais, depois com pousos na água. A gente acompanhou, quando eles se esborrachavam no mar ou nas balsas.

Era divertido ver a mídia acusando a SpaceX de correr atrás de sonhos impossíveis, que nenhum foguete poderia pousar, era desperdício de dinheiro tentar isso.

Espiando debaixo da saia da Starship - Três Raptors (Crédito: SpaceX)

Mais divertido ainda foi ver os problemas acontecendo -falta de combustível, falta de nitrogênio nos jatos de manobra, pernas com amortecimento insuficiente- e sendo resolvidos não um ano e 38 reuniões depois, mas no próximo lançamento.

Hoje, depois de 75 pousos bem-sucedidos, chega a ser considerado um fracasso quando um Falcon 9 não pousa, o que aliás é bem raro.

Com a Starship o desenvolvimento está sendo no mesmo modelo. Depois da caixa d’água abominável dos infernos que era o Starhopper, a SpaceX construiu outros protótipos para testar técnicas de soldagem e montagem, e para aprender na marra como fazer tanques capazes de resistir às pressões exigidas para um vôo tripulado.

O Starhopper é mais feio que encoxar a mãe no tanque. (Crédito: Nomadd / Wikimedia Commons)

Depois de várias explosões previstas bem legais, foi a vez da Starship SN5, um silo de cereais de metal com um contrapeso no alto, a desgraça destruiu o chão da plataforma de lançamento, mas subiu os 150 metros planejados, em 4 de Agosto de 2020.

Em 9 de Dezembro de 2020, foi a vez da SN8 fazer um teste de vôo de grande altitude. Desta vez com direito a bico e tudo, a Starship contava com flaps de manobra e um perfil de vôo ousado. Ela iria subir a 12,5Km, pairar, começar a descer, deitar na horizontal para reduzir a velocidade terminal e quando estivesse chegando, giraria e executaria um pouso vertical. Quase deu certo.

Lembre-se, esse bicho tem 50 metros de altura, é um prédio de 15 andares.

Quanto tempo levou pra SpaceX estudar a falha no pouso, descobrir que foi falta de pressão no tanque do nariz, projetar as correções e implementar?

Bem, em 2 de Fevereiro de 2021 a Starship SN9 estava decolando de Boca Chica. Na hora de religar os motores, um deles não funcionou direito e um único Raptor foi incapaz de desacelerar. O resultado foi espetacular.

Nessa altura a SpaceX já estava cumprindo sua meta: Produzir protótipos mais rápido do que conseguia explodi-los. Em 2 de Março foi a vez da SN10, um incrível alarme falso. Um pouco de Hélio, usado para pressurizar os tanques de combustível e oxidante foi ingerido pela tubulação, e compreensivelmente um dos Raptors engasgou, Hélio não é um dos gases mais inflamáveis, como todo mundo -vocês não, projetistas do Hindemburg- sabe.

Sem potência, o SN10 fez um pouso bem forte, rompeu tubulações e depois de oito minutos, cabum. Por outro lado foi a única Starship a decolar duas vezes 😉

A Starship SN11 voou 30 de Março, dois lançamentos em um mês. A decolagem foi perfeita, a manobra de giro idem, mas quando os motores foram religados um vazamento de metano provocou a perda da espaçonave, em uma gigantesca explosão.

No mesmo dia funcionários da SpaceX recolhiam os pedaços da nave, espalhados pela região, enquanto outros analisavam a telemetria e identificavam problemas. O próximo protótipo, a SN15 já estava em construção, incorporando centenas de modificações, derivadas de tudo que aprenderam com os lançamentos anteriores.

Pouco mais de um mês depois, em 5 de Maio de 2021, era a vez da SN15 ser lançada.

O clima não estava ajudando, a neblina deixava menos de 100m de visibilidade vertical, mas a Starship não precisa ver o local de pouso, ela tem toneladas de radares, lidares, gps e até Starlink.

O que não funcionou foi o streaming, por algum motivo o sinal estava horrível, ficamos vários minutos sem atualização, de vez em quando entrava um ou outro frame, então foi um belo susto ver a SN15 saindo das nuvens e iniciando uma manobra bem agressiva para se verticalizar e alinhar com o ponto de pouso.

Deu certo, com o detalhe menor que um vazamento de metano ou metano remanescente nas tubulações alimentaram labaredas por alguns minutos, mas mesmo assim a Starship não explodiu, o que é uma excelente forma de terminar um vôo.

Os Deuses da Exploração Espacial estavam realmente sorrindo pra SpaceX. Eles tiveram sorte, sorte mesmo. Entre outros momentos, a nave pousou bem na borda do pavimento de concreto. Talvez não acontecesse nada, mas pousar no chão de terra dificilmente seria agradável.

O pouso bem-sucedido veio na hora ideal, depois que a NASA mandou a SpaceX parar de trabalhar no programa de pouso lunar, contrato de US$2.89 bilhões que a empresa de Elon Musk ganhou, deixando para trás os concorrentes Dynetics e Blue Origin.

Os dois grupos, claro, entraram com um monte de recursos e acusações, fazendo com que a NASA parasse o projeto para ter que se defender. As acusações, dos grupos que nunca colocaram uma grama em órbita nem construíram nada que se assemelhe a um foguete de verdade acusam a SpaceX de... explodir protótipos.

A futura Starship Lunar (Crédito: NASA / SpaceX)

Pois bem, agora para desgosto geral das inimigas, a SpaceX pousou uma Starship, na 5ª tentativa. Fora a SN15 a SpaceX está construindo da SN16 à SN20.

A expectativa agora é um vôo de testes do Super Heavy, o primeiro estágio da Starship, com 28 motores Raptor. O primeiro protótipo, BN1 foi feito para certificar as técnicas de construção e sondagem. Em 30 de Março de 2021 ele foi dado como encerrado.

O BN2 está sendo construído e provavelmente irá voar em breve. Musk diz que com sorte ele terá capacidade orbital, mas o BN3, que também já está sendo construído, será usado para o primeiro vôo orbital de uma Starship, em Julho de 2021.

BN1, o primeiro Super Heavy. Esse monstro tem 70 metros de altura. A Starship tem 50. (Crédito: SpaceX / Elon Musk)

A gente sempre imaginou aquelas fábricas como da ULA, com técnicos em impecáveis macacões brancos em salas limpas manuseando delicadamente complexas peças de metal, aí vem a SpaceX, em modo Full Tony Stark, construindo uma nave espacial em um terreiro, com um galpão de alumínio sem porta, e lançando literalmente da beira da estrada.

A SpaceX sem-querer criou toda uma economia de youtubbers nerds que passam 24 horas por dia filmando e acompanhando o desenvolvimento. A Starship hoje provavelmente é o projeto de engenharia mais monitorado e “aberto” do planeta. É a melhor forma de fazer engenharia? Não sei, mas é a mais divertida!

SpaceX pousa com sucesso a Starship (sem explodir)

15 Jun 05:53

Barbara Lauwers e a Operação Chucrute

by Carlos Cardoso

Barbara Lauwers sabia que em guerra psicologia é uma arma tão importante quanto uma arma. O sucesso ou fracasso de uma operação militar depende da cabeça dos soldados, se sua motivação e moral. Nenhuma tropa que acha que está derrotada já venceu alguma batalha, e essa jovem e ousada refugiada se mostraria uma mestra nessa arte.

Nem era complicado mexer com a cabeça dos nazistas (Crédito: NBC)

Claro, ela de forma alguma foi a inventora do conceito de Guerra Psicológica, tão antigo quanto a própria Guerra, mas aprimorado na Primeira Guerra Mundial e usado em grande escala na Segunda.

Temos as clássicas estações de rádio inimigas transmitindo música e propaganda para os soldados, com locutoras que ganhavam apelidos com Rosa de Tóquio e Axis Sally. No Vietnã os americanos espalhavam alto-falantes na floresta, para emitir sons fantasmagóricos e assustar os inimigos.

Panfletos com salvo-condutos convidando o inimigo a se render eram jogados constantemente atrás das linhas inimigas. Algumas vezes não davam muito certo, e em um caso especial a propaganda de guerra falhou por contarem a verdade.

Panfletos aliados mostrando soldados alemães em campos de prisioneiros sendo bem-tratados e comendo pratos fartos com bacon e ovos foram vistos como propaganda mentirosa, nenhum soldado alemão acreditou que um prisioneiro de guerra teria melhor dieta que um soldado no front e fazia tempo que Hitler não mandava um baconzinho que fosse.

O da esquerda não funcionava muito bem. (Crédito: US Army/Domínio Público)

No Japão a propaganda tinha efeito quase zero, até descobrirem que havia um componente psicológico forte: Os panfletos dizendo “Eu em rendo” eram terríveis para a moral do soldado japonês. Eles eram treinados a nunca se renderem, rendição era vergonha suprema. Então mesmo que significasse morrer, eles ignoravam os panfletos.

Quando o texto passou a dizer “Eu parei de resistir”, a propaganda funcionou e os panfletos começaram a funcionar.

Esse tipo de detalhe cultural era fundamental, e Barbara Lauwers era especialista nisso.

Cabo Barbara Lauwers (Crédito: US Army / Domínio Público)

Nascida em 1914 em Brno, no que seria hoje a Tchecoslováquia, se a Tchecoslováquia ainda existisse, Božena Hauserová se formou em Direito pela Universidade de Masaryk, e na mesma época conheceu seu futuro marido.

Lauwers era curiosa, inteligente e aventureira, falava com fluência várias línguas, incluindo Checo, Eslovaco, Francês, inglês e alemão. Aventurando-se com o marido ela foi parar no Congo Belga em 1939, quando os dois perceberam que o angu estava começando a ferver na Europa, eles emigraram para os Estados Unidos, em 1941. Aí em dezembro os japas fizeram o favor de envolver os EUA de vez com o arranca-rabo generalizado.

O marido se alistou imediatamente. Barbara Lauwers teve que esperar a conclusão de seu processo de naturalização, mas assim que se tornou cidadã americana, 1º de junho de 1943, algumas horas depois se alistou no Exército, e após terminar o treinamento básico foi mandada para a Escola do Women's Army Corps, a organização do Exército que coordenava as tropas femininas, que trabalhavam em todas as atividades fora combate.

Não deu muito tempo, os instrutores perceberam que aquela gringa viajada esperta feito uma barata em galinheiro era material perfeito pra trabalhos mais nobres, e ela foi mandada pro OSS - Office of Strategic Services. O Escritório de Serviços Estratégicos é uma espécie de antecessor da CIA, eles cuidavam de todos os planos mirabolantes, espionagem, armas secretas, etc, etc, etc. Entre eles, operações de guerra psicológica.

Os planos do OSS às vezes eram ridículos, como a idéia de fazer Hitler consumir progesterona sem perceber, e com isso torná-lo mais feminino e dócil. Outras vezes eram coisa de filme, como quando usaram a superstição e a crença nazista em astrologia. Um astrólogo europeu famoso teve seus poderes “ampliados”, com os Aliados passando informações que eram transformadas em previsões, que obviamente se cumpriam.

Com o tempo ele começou a prever a queda do III Reich, e cópias falsas de uma revista popular de astrologia eram distribuídas pela Resistência na Alemanha, para espalhar as profecias e desestabilizar a população.

Barbara Lauwers e o artista Saul Steinberg em Roma, 1944 (Crédito: US Army/Domínio Público)

Barbara Lauwers foi mandada primeiro para a Argélia, depois para a Itália. Lá ela se tornou parte da Operação Chucrute. Seu trabalho era entrevistar prisioneiros alemães e achar os melhores candidatos dispostos a distribuir propaganda atrás das linhas inimigas.

Nessa época o OSS produzia dois tipos de materiais: Documentos, ordens, passaportes e cartas, falsificados com perfeição e certificados por prisioneiros alemães, que apontavam erros de português, digo, de alemão e pequenas imperfeições.

O segundo tipo eram panfletos, cartazes e reproduções de documentos “roubados”, tudo produzido em máquinas de gráficas locais, com papel de qualidade duvidosa, erros de composição e falhas de impressão. O objetivo era dar aos nazistas a impressão de que eram produzidos por membros locais da Resistência, que muitas vezes nem existia.

Uma das trollagens do OSS era imprimir papel higiênico com o rosto de Hitler - a Inscrição diz "usar este lado" e espalhar pelas latrinas dos acampamentos inimigos (Crédito: US Army / Domínio Público)

Um dos grandes feitos de Barbara Lauwers foi a criação da Verein Einsamer Kriegerfrauen (VAK), ou “Associação das Mulheres Solitárias da Guerra”. Era um grupo obviamente fictício, que seria composto por jovens casadas e solteiras, solitárias com seus maridos e namorados no front.

Elas estariam sozinhas e carentes, desesperadas por um abraço amigo, e sem seus homens para consolá-las, qualquer um servia. Soldados de folga bastariam usar um coração de papel preso na lapela, e várias Fräuleins dadivosas fazendo cara de Polônia se apresentariam esperando uma Blitzkrieg, de preferência não muito blitz.

Clube das Fräuleins solitárias (Crédito: US Army/Domínio Público)

O material foi espalhado como uma circular interna da Wehrmacht, que teria sido capturada pela Resistência e RE-capturada pelo Exército, soldados achavam cópias do documento e guardavam, mostrando pros amigos e divulgando a história.

O efeito era óbvio. Barbara Lauwers, profunda conhecedora da psiquê masculina sabia que a idéia de moças dadivosas sem burocracia ou compensação monetária era extremamente atraente, mas também sabia que uma boa porção dos soldados eram casados ou tinham namorada, então enquanto Hans lia no panfleto “Frei Zex!”  Franz lia “você está morrendo na guerra e a patroa em casa está distribuindo mais que chayote nos alpes”. Isso era terrível psicologicamente para a maioria dos soldados.

Claro, Barbara não parou ali. Um dia, entrevistando prisioneiros alemães ela ouviu uma conversa em que um oficial se gabava de estarem selecionando soldados Checos e Eslovacos para os piores trabalhos.

Nessa época, 1944, a Alemanha estava com falta de tropas qualificadas, então muitos serviços eram alocados para tropas formadas por homens de países invadidos, convocados e apresentados com a interessante escolha “ou você serve no exército ou morre”.

Percebendo a situação Barbara Lauwers bolou um plano, mas primeiro precisou conseguir emprestadas máquinas de escrever com o Vaticano, o único lugar aonde eram regularmente produzidos documentos nas mais variadas línguas, dificilmente as máquinas de escrever americanas teriam acentos e caracteres dos idiomas Checo e Eslovaco.

Com as máquinas disponibilizadas, ela escreveu e produziu panfletos nas línguas nativas dos dois países, oferecendo salvo-conduto para essas tropas.

As mensagens foram lançadas de avião e transmitidas pela BBC.

Em uma semana pelo menos 600 soldados desertaram e foram acolhidos pelos aliados.

Por essa a Cabo Barbara Lauwers ganhou uma Estrela de Bronze.

Barbara Lauwers recebe sua Estrela de Bronze (Crédito: US Army/Domínio Público)

A fake News foi tão bem-feita que o Washington Post colocou as mãos em um dos panfletos, acreditou piamente e publicou a história em sua edição de 10/10/1944, sem ter a menor idéia de que era tudo um plano do OSS.

Após a Guerra Barbara Lauwers se reencontrou com o marido, mas o casamento não foi adiante. Ela trabalhou vendendo chapéus, como locutora, ficou no tempo na Academia Nacional de Ciências e depois arrumou uma vaga como pesquisadora na Biblioteca do Congresso, aonde conheceu Joseph Junosza Podoski, um aristocrata polonês que se tornou seu segundo marido.

O casal trabalhou em uma organização de apoio a refugiados até a morte de Joseph, em 1984. Barbara morreu em 2009, aos 95 anos de idade, com certeza cheia de memórias incríveis e a paz de espírito do dever cumprido.

Fontes:

Barbara Lauwers e a Operação Chucrute

13 Jun 22:30

MS-DOS 40 anos: o SO que colocou a Microsoft no mapa

by Ronaldo Gogoni

O MS-DOS, um dos mais populares (mas não o único) sistemas operacionais de operação de disco para computadores IBM-PC, completa 40 anos no dia 12 de agosto de 2021. Embora tenha sido o responsável por colocar a Microsoft no mapa, de uma mera subsidiária à empresa de software concorrente de empresas como IBM e Apple, ele não foi um programa totalmente original da companhia de Bill Gates. Ele passa bem longe disso, na verdade.

Tela de carregamento do MS-DOS (Crédito: Reprodução/Microsoft)

Tela de carregamento do MS-DOS (Crédito: Reprodução/Microsoft)

No princípio, havia o CP/M

As origens do MS-DOS podem ser traçadas até o CP/M, sigla original para "Control Program/Monitor" (Programa/Monitor de Controle), posteriormente alterada para o  equivalente em inglês de "Programa de Controle para Microcomputadores". Desenvolvido em 1974 por Gary Kildall (1942-1994), que fundou a empresa Digital Research para distribuir seu software, ele era um programa de controle e operação voltado para os processadores Intel 8080 e posteriormente 8085, de 8 bits.

Estruturalmente, o CP/M é igual ao MS-DOS. Ele suporta entradas via linha de comando para a execução de operações diversas, e suporta a instalação e execução de programas de terceiros, para os mais diversos fins.

Originalmente desenvolvido como um programa de tarefa única, ele era limitado a endereçar apenas 64 kB de uma vez. Com o tempo, o software ganhou multitarefa e foi migrado para processadores de 16 bits. Sua operação era baseada no venerável Altair 8800 da MITS, o primeiro computador voltado para hobbystas e que sozinho iniciou a revolução digital, tirando o controle das mãos de grandes corporações.

O CP/M foi importante por diminuir bastante a necessidade de programar cada ação que um computador precisaria fazer, de olho principalmente em uso por leigos, que teriam acesso a programas capazes de rodar por cima do CP/M. Foi ele também que introduziu o conceito de instruções de baixo nível que eram carregadas durante o boot, e que posteriormente seriam introduzidas via firmware.

O tempo, cunhado por Kildall para nomear o recurso,  foi "Sistema Básico de Entrada e Saída", em inglês "Basic Input Output System", ou simplesmente... BIOS.

Tela do CP/M-86, voltada a processadores Intel 8086 (Crédito: Reprodução/BSD License)

Tela do CP/M-86, voltada a processadores Intel 8086 (Crédito: Reprodução/BSD License)

O CP/M teve várias versões para diversos processadores, e inspirou outros desenvolvedores a criarem adaptações para vários casos de uso ao longo dos anos. Um desses casos foi o da Seattle Computer Products, ou SPC, fundada pelo programador Tim Paterson.

Ele desenvolveu em 1980 uma versão do programa de Kildall especificamente para o Intel 8086, tanto que chamou o sistema inicialmente de QDOS, de "Quick and Dirty Operating System", ou Sistema Operacional Rápido e Sujo em português. Posteriormente ele foi renomeado para 86-DOS, quando começou a licenciá-lo.

Um de seus clientes foi uma pequena empresa de Redmond, Washington chamada Microsoft, que tinha um problema para resolver.

86-DOS, MS-DOS e IBM PC-DOS

Segundo Paterson, o desenvolvimento do 86-DOS só consumiu 6 meses, visto que ele era basicamente um port do CP/M para o Intel 8086, sem saber que a Digital Research também estava desenvolvendo uma versão para o chip, lançada como CP/M-86 posteriormente. A SCP originalmente iria distribuir a versão original, anunciada para 1979, mas decidiu desenvolver (copiar) sua versão quando o mesmo atrasou, tendo saído  só em novembro de 1981.

O 86-DOS era vendido com o kit do processador e uma versão do Microsoft BASIC-86, sendo que a empresa de Bill Gates estava em negociação com a IBM, esta prestes a introduzir o IBM-5150, seu primeiro computador pessoal. A gigante precisava de um sistema de disco embarcado com cada unidade, e o CP/M-86 da Digital Research, mesmo atrasado, era a primeira escolha da empresa.

No entanto, as negociações não avançaram, porque não só a IBM queria a posse do software, como desejava renomeá-lo para IBM PC-DOS, o que Kindall não aceitou. Gates, mais esperto, propôs um acordo de licenciamento de seu suposto sistema DOS, que a IBM poderia usar como quisesse, enquanto manteria a propriedade intelectual sobre o mesmo.

A IBM aceitou, pois a empresa acreditava que embora não controlasse o software na sua totalidade, o grosso do dinheiro estava no hardware, e a Microsoft ficaria com a menor fatia do bolo de qualquer forma. Os meses e anos seguintes provariam que tal decisão teria o efeito contrário, mas chegaremos lá.

Embora tenha saído  do primeiro encontro com a IBM com um acordo preliminar, Bill Gates tinha agora um problema para resolver: a Microsoft não possuía um DOS para oferecer, o contrato era baseado em vento.

A solução foi correr até a SCP, pagar US$ 75 mil pelo 86-DOS, customizá-lo e mudar o nome para MS-DOS. Tim Paterson acabou contratado pela Microsoft, onde ele trabalhou em três períodos distintos, sendo o último entre 1994 e 1998, onde fez parte do time de desenvolvimento do Visual Basic.

Gates e Allen concluíram a passada de rodo na IBM repassando o 86-DOS/MS-DOS 1.14 como uma versão licenciada, chamada obviamente IBM PC-DOS, ao mesmo tempo que era livre para vender sua versão própria.

No fim das contas, o IBM PC 5150 chegou às lojas compatível com PC-DOS (devidamente embarcado), MS-DOS e CP/M-86, quando este foi lançado meses depois.

Paul Allen e Bill Gates em 1981, após fecharem o acordo de licenciamento do MS-DOS com a IBM (Crédito: acervo Microsoft)

Paul Allen e Bill Gates em 1981, após fecharem o acordo de licenciamento do MS-DOS com a IBM (Crédito: acervo Microsoft)

O que a IBM não contava, no entanto, era o fato de que a arquitetura do Intel 8086 e do 8088, este presente no IBM PC, não era uma propriedade exclusiva da gigante de tecnologia, e kits com os processadores começaram a ser embarcados por diversas empresas, tão logo a Microsoft começou a licenciar o MS-DOS para quem quisesse. Em um ano, o SO estava presente em produtos de outras 70 companhias, invertendo completamente a noção de domínio que os então parceiros de Gates possuíam:

O hardware era algo que qualquer empresa poderia colocar no mercado, montar como quisesse e vender pelo preço que desejasse, mas o sistema operacional era sempre o MS-DOS, o que fez a pequena companhia se expandir de forma exponencial nos anos seguintes. Sem contar que muitos usuários usaram versões não-oficiais, na época em que não havia internet e todo mundo trocava disquetes de programas e jogos.

Considerando exceções como os computadores da Apple, que sempre usaram SOs proprietários, e casos atípicos como o mercado de computadores pessoais do Japão, capitaneado pela NEC, Sharp e outras empresas locais, que usavam seus próprios sistemas operacionais, a Microsoft se fez presente com o MS-DOS, e posteriormente com o Windows, que rodava como um app, em quase todos os cantos do planeta.

Ainda assim, a Microsoft manteve os acordos e continuou a co-desenvolver o PC-DOS em paralelo ao MS-DOS, e ambos eram essencialmente iguais até 1993, quando a IBM começou a se enveredar para o lado do PowerPC, uma parceria de desenvolvimento em conjunto com a Apple e a Motorola. Vale lembrar que rusgas entre as duas também incluem o OS/2.

Apesar de oferecer grande suporte a diversos processadores e componentes, curiosamente o MS-DOS não tinha suporte a multiusuários, porque a Microsoft já possuía um SO capaz disso: o Xenix, sua própria distribuição Unix, mantida entre 1980 e 1989.

O MS-DOS continua "vivo" até hoje, com fragmentos integrados ao Windows, tendo começado a ser depreciado no Windows 95 e substituído por completo no Windows 98, mas permanece como um caso de software que ajudou a elevar uma empresa, ainda que não fosse original, ao mesmo tempo que impediu a IBM de dominar o mercado de PCs domésticos, ao ser licenciado para todo mundo que quisesse usá-lo.

Hoje você pode usar versões específicas do MS-DOS, distribuídas pela Microsoft como softwares de código aberto.

10 programas e jogos do MS-DOS

Vamos relembrar alguns programas e jogos do MS-DOS que são lembrados até hoje, e em muitos casos ainda usados e curtidos por alguns entusiastas:

1. WordPerfect

WordPerfect no MS-DOS (Crédito: Reprodução/Corel)

WordPerfect no MS-DOS (Crédito: Reprodução/Corel)

George RR Martin pode preferir escrever seus livros até hoje no WordStar (o programa que todo mundo que usou se lembra até hoje o comando para desmarcar bloco), que outrora foi um dos editores de texto mais populares do MS-DOS, junto com o Word, o primeiro a  ter suporte a mouse fornecido pela Microsoft.

No entanto, foi o WordPerfect quem evoluiu mais que os concorrentes e em pouco tempo, se tornou o software dominante em sua área, por oferecer uma interface mais limpa e menos complexa. no entanto, os desenvolvedores meteram os pés pelas mãos com a versão para Windows, que foi eclipsada pelo Word e outros editores.

2. Lotus 1-2-3

Lotus 1-2-3 (Crédito: Reprodução/HCL)

Lotus 1-2-3 (Crédito: Reprodução/HCL)

A Lotus Software foi um caso clássico de "one hit wonder". O Lotus 1-2-3 foi por muitos anos o único programa suficientemente decente para usar planilhas de cálculo no MS-DOS, por ser ridiculamente fácil de usar, mais do que o Excel nunca foi, dizem alguns.

Como o tempo não perdoa, e assim como aconteceu com o WordPerfect, o Lotus 1-2-3 se tornou um produto restrito a uma época, visto que a Lotus não conseguiu emplacar outros produtos no Windows.

3. dBase

dBase III Plus (Crédito: Reprodução/Cecil Wayne Ratliff)

dBase III Plus (Crédito: Reprodução/Cecil Wayne Ratliff)

O dBase foi um programa de construção de banco de dados sólido, fácil de usar e flexível, principalmente na versão III Plus, uma das mais usadas. Ele era tão simplificado e dispensava conhecimentos extensos de programação, o que lhe permitiu servir de base para inúmeros sistemas de gerenciamento ao longo das décadas.

Se você procurar, fatalmente encontrará um comércio em algum canto do Brasil, que usa um sistema de terceiros para controle de estoque e fluxo de caixa, que por trás dos bastidores, é todo construído sobre o dBase, que apenas funciona, e não tem no que mexer para melhorar, se isso não é necessário.

4. Compiladores de 1ª geração

Compilador Turbo C (Crédito: Reprodução/Borland International)

Compilador Turbo C (Crédito: Reprodução/Borland International)

O MS-DOS não exige conhecimentos de programação extensos para ser operado, mas por outro lado, suportava inúmeros compiladores para quem estava aprendendo. Todas as linguagens populares entre os anos 1980 e 1990, como C, Delphi e a acadêmica Pascal, ou algumas mais antigas, como COBOL, possuem compiladores para o SO.

Com o SO da Microsoft, era bastante simples rodar programas compiladores e aprender a programar por conta própria, graças à facilidade de instalação dos softwares.

5. Clientes de BBS

Um exemplo de como a BBS era (Crédito: Reprodução/acervo internet)

Um exemplo de como a BBS era (Crédito: Reprodução/acervo internet)

Antes da internet existia o BBS, servidores dedicados mantidos por terceiros, em geral universidades e operadoras, com algumas empresas no meio, que ofereciam ambientes online para os usuários, que se conectavam via telefone. Com um programa cliente, era possível entrar em listas de discussão, baixar e fazer upload de programas e imagens, pesquisar artigos e publicações diversas, e etc.

Embora o acesso fosse bastante limitado, o BBS fez sucesso entre entusiastas e curiosos, mesmo no Brasil, e clientes como o Telemate eram essenciais para fazer a conexão entre o seu computador e a rede.

6. DONKEY.BAS

DONKEY.BAS foi escrito por Bill Gates para o PC-DOS (Crédito: Reprodução/IBM)

DONKEY.BAS foi escrito por Bill Gates para o PC-DOS (Crédito: Reprodução/IBM)

Pouca gente sabe, mas o primeiro jogo do MS-DOS, ou tecnicamente do PC-DOS, foi co-escrito por Bill Gates com Neil Konzen, que foi um dos primeiros funcionários da Microsoft, responsável por programar as primeiras versões do MultiPlan e do Word para o Macintosh, em 1984.

DONKEY.BAS era um jogo de corrida que vinha junto com as instalações padrão do PC-DOS, em que o jogador tinha que conduzir seu carro na estrada, enquanto se desviava de burros, daí o nome. Hoje ele é risível de tão simples, mas foi de fato o primeiro jogo do DOS.

7. Wolfenstein 3D

Wolfenstein 3D (Crédito: Reprodução/id Software/Microsoft)

Wolfenstein 3D (Crédito: Reprodução/id Software/Microsoft)

Até este jogo, a série Castle Wolfenstein consistia de 2 jogos em visão isométrica. John Carmack, que estava testando jogos com ambientação tridimensional, decidiu aproveitar a marca, que estava vaga e fora adquirida pela id Software, para apresentar o que é considerado o avô de todos os jogos de tiro em primeira pessoa, os FPS.

Wolfenstein 3D trazia uma trama simples e um desafio altíssimo, além de um mapa gigantesco para explorar, cheio de segredos e nazistas para despachar. Ainda relevante e divertido, ele foi incluído como easter eggs nas versões mais recentes da franquia, completo.

8. Prince of Persia

Prince of Persia é excelente até hoje (Crédito: Reprodução/Brøderbund/Ubisoft) / ms-dos

Prince of Persia é excelente até hoje (Crédito: Reprodução/Brøderbund/Ubisoft)

Justiça seja feita, Jordan Mechner se sentiu motivado a criar games quando o Apple II foi lançado, e este recebeu a primeira versão de Karateka, posteriormente portado para outras plataformas. Já Prince of Persia teve muito mais alcance, principalmente pela versão para MS-DOS, compartilhada em disquetes junto com versões caseiras do manual, para driblar o recurso anti-pirataria incluso, a sala com as poções.

Um dos recursos mais atraentes do jogo, a fluida animação dos personagens, cada um com muitos quadros, foi viabilizada graças ao uso da rotoscopia por Mechner, capturando movimentos filmados para posteriormente transferi-los para animações com pixels, de forma manual. O resultado é um jogo excelente, em desafio e estética, mesmo mais de 30 anos depois.

9. SimCity

SimCity (Crédito: Reprodução/Maxis/Electronic Arts) / ms-dos

SimCity (Crédito: Reprodução/Maxis/Electronic Arts)

A Maxis e a Electronic Arts cometeram uma série de presepadas na última versão de SimCity, o que enfraqueceu um pouco a marca, mas o simulador de cidades ainda é uma das franquias mais conhecidas entre os jogadores de PC mais antigos.

O jogo de 1989, conhecido hoje como SimCity Classic para diferenciá-lo do SimCity de 2013, foi desenvolvida de forma independente por Will Wright por 4 anos, e mesmo que muitos apontem que a versão de Super NES seja melhor (o que é verdade), cabe a esta versão ter trago elementos e mecânicas que foram replicadas por concorrentes, e refinadas nas continuações oficiais.

10. Sid Meier's Civilization

Mahatma Gandhi, o pacifista nuclear (Crédito: Reprodução/Microprose/Take-Two Interactive) / ms-dos

Mahatma Gandhi, o pacifista nuclear (Crédito: Reprodução/Microprose/Take-Two Interactive)

A obra-prima de Sid Meier e um dos precursores do gênero 4X, em que o jogador deve explorar recursos naturais, expandir seus domínios e eliminar a competição, o primeiro Civilization é um jogo bastante limitado para os padrões de hoje, mas já trazia todos os elementos básicos que estruturam todas as continuações, para o bem e para o mal.

O "Gandhi Nuclear", em que o histórico pacifista se apresenta no jogo como um líder que retalia potenciais ameaças com força nuclear, foi um bug na atribuição de agressividade para o personagem. Originalmente o índice ia de 1 a 12, e era armazenado em um byte. Gandhi começava com 1, o mais baixo, mas assim que um jogador desenvolvesse a Democracia como sistema de governo, todos os demais líderes recebiam 2 pontos de desconto.

Como resultado Gandhi ficava com -1, e quando você executa uma subtração em binário, é gerado um underflow porque a tabela não suporta negativos. Assim, a agressividade do líder indiano dava a volta e ia para o valor mais alto, 255, o último da tabela binária. Como resultado, Gandhi contra-atacava qualquer ação contra a Índia com armas nucleares.

O bug fez tanto sucesso pelos motivos errados, que mesmo nas versões mais recentes da série Civilization, onde a retaliação nuclear é uma variável separada, Gandhi possui o valor mais alto, 12, contra 8 dos líderes mais belicosos da franquia.

MS-DOS 40 anos: o SO que colocou a Microsoft no mapa

11 Jun 05:44

First Time Since Early 2020

Gotten the Ferris wheel operator's attention
08 Jun 06:45

Como disfarçar seu avião secreto: Coloque um gorila pra pilotar

by Carlos Cardoso

Tocar projetos sigilosos em países mais livres é complicado. Se os russos queriam projetar um avião secreto, era só determinar uma área no mapa e quem chegasse perto, sumiria. Nos EUA, mesmo com a Área 51, muita informação vazava.

Jack Woolams e seu chapéu coco (Crédito: USAF)

Algumas vezes os projetos eram feitos a céu aberto, com um objetivo falso. Quando a CIA gastou bilhões projetando o Glomar Explorer, um navio para içar um submarino soviético, a construção foi pública. A justificativa era que o bilionário Howard Hughes, o Tony Stark da época iria explorar o fundo do oceano atrás de Manganês.

Outros projetos são absolutamente secretos, como o SR-71, o avião era transportado em uma caixa, entre a fábrica e a Área 51.

Os voos eram sempre noturnos, mas mesmo assim o avião acabou vazando.

SR-71 Blackbird sendo transportado. (Crédito: USAF)

Muito antes disso métodos criativos eram usados para ocultar projetos, como o caso o P-59, o primeiro caça a jato dos Estados Unidos.

Em 1942 ele começou seus primeiros testes, mas era uma tecnologia avançadíssima, e secreta. Ele deveria ser mantido low profile mesmo para a maioria dos soldados e aviadores na base aonde era testado.

Para disfarçar o avião secreto, criaram uma hélice falsa, de madeira, que ficava encaixada no nariz do P-59, assim quem passasse não estranharia um avião sem hélice, mas essa não é a melhor parte.

Sim, o pessoal era enganado por isso. (Crédito: USAF)

Durante os voos era comum encontrarem aviões militares, e mesmo alguns civis. Por mais que os militares soubessem manter a boca fechada, eles acabariam falando, e os civis muito mais, ao ver um avião revolucionário voando sem hélices.

A idéia para complicar a vida dos enxeridos veio de Jack Woolams, chefe dos pilotos de prova da Bell Aircraft, empresa que estava projetando e construindo o P-59 Airacomet.

Jack passou a pilotar o P-59 em seus voos de teste usando uma máscara de gorila, um chapéu coco e um charuto. Quando um avião emparelhava com ele, Jack pegava o charuto e saudava o outro piloto, antes de acelerar e ir embora.

Jack Woolams, disfarçado (crédito: USAF)

Quando os pilotos começavam a contar a história de um avião que voava sem hélice, acabavam emendando que quem pilotava era um gorila. Todo mundo soltava um “aham, claro!” e o segredo permanecia seguro, pois ninguém acreditaria em qualquer parte da história.

Como disfarçar seu avião secreto: Coloque um gorila pra pilotar