Shared posts

28 Feb 16:58

Sobre a estranha dificuldade em derrubar um balão com caças de 5.ª Geração

by Carlos Cardoso

Na madrugada de 19 para 20 de janeiro de 1915 um balão, ou mais precisamente um dirigível sobrevoou o Reino Unido, na região de Norfolk, lançando pela primeira vez bombas em território britânico.

O balão chinês, visto de um avião espião U-2, em 3/2/23. (Crédito: Secretary of the Air Force Public Affairs)

Outro dirigível próximo também soltou bombas. Uma ameaça silenciosa e indetectável, na calada da noite. Claro, os dirigíveis de 1915 não eram exatamente alta tecnologia comparado com os de hoje, mas os aviões eram piores ainda.

Biplanos com motores que mal conseguiam tirar o avião do chão levavam uma eternidade para chegar na altitude dos balões. Um Sopwith Camel, lançado em 1917 e um dos melhores aviões da Guerra tinha uma razão de subida de 300 metros por minuto. Para chegar até um balão a 3000 metros, eram dez minutos. Aí, a segunda parte: O pobre biplano, voando no limite de sua capacidade, tinha poucos segundos para enfrentar o dirigível, que o recebia com dezenas de metralhadoras antiaéreas.

A propaganda de guerra era pesada. "É muito melhor enfrentar as balas do que ser morto em casa por uma bomba. Aliste-se." (Crédito: Domínio Público)

Alvo na mira, era hora de sentar o dedo e encher aquele balão monstruoso de balas, numa explosão linda, como no Battlefield 1. O piloto apertava o gatilho, a metralhadora Lewis cuspia fogo. Certeira, a saraivada de balas atingia o dirigível e... nada acontecia.

Apesar de estar repleto de Hidrogênio, um projétil de uma metralhadora é um pedacinho de chumbo, que atravessa o dirigível e deixa dois furinhos. O gás vaza, mas a menos que alguém desça com um isqueiro, nada acontece, comparado com o tamanho do dirigível o vazamento é mínimo, facilmente compensado pelos tanques de bordo.

Os ingleses tentaram de tudo, mas só conseguiram derrubar o primeiro dirigível alemão em 1º de abril de 1916. Foi o L-15, um zepelim que não era da Zeppelin, mas da Schütte-Lanz, outra empresa que fabricava dirigíveis.

Ele só foi abatido com a invenção de munição incendiária, que na época equivaliam à munição que hoje chamamos de traçante, o projétil leva uma pequena carga pirotécnica que se incendeia durante o trajeto até o alvo, isso é importante para você ter uma idéia da trajetória de seus tiros.

Em aviões era comum colocar um projétil traçante a cada cinco convencionais, assim os pilotos sabiam onde seus tiros estavam atingindo.

Aqui vemos um tiro de um projétil calibre .50 com munição traçante, e um lindo ricochete:

 

Neste outro vídeo, uma demonstração noturna com munição traçante, das forças armadas da Arábia Saudita:

A desvantagem a munição traçante é que ela funciona pros dois lados, mas não ajudou muito aos alemães, que no total perderam 30 dirigíveis em 51 missões de ataque, que mataram 557 britânicos. Foram 5,806 bombas, e os ataques só cessaram em 1917, quando ficou evidente que os dirigíveis não eram mais invulneráveis.

Mesmo assim, balões foram muito utilizados na 1ª Guerra Mundial, como veículos de observação. Em geral um corn-digo voluntário entusiasmado era escolhido, colocado numa cestinha presa a um enorme balão repleto de hidrogênio, e solto no ar, preso por uma corda e um cabo telegráfico. O sujeito ficava com binóculos, observando a movimentação das tropas inimigas e esperando o primeiro avião aparecer e explodir sua morada final.

Isso não era exatamente novidade. Balões de observação foram usados por Napoleão, em várias guerras européias e na Guerra Civil nos Estados Unidos. Até nós usamos, durante a Guerra do Paraguay o Brasil foi o primeiro país da América Latina a usar balões de observação, com direito a técnicos americanos contratados pra lidar com a alta tecnologia do Hidrogênio.

Intrepid, balão de observação usado na Guerra Civil nos EUA, circa 1862. (Crédito: Domínio Público)

No interbellum (período entre guerras, MeioBit também é cultura) os dirigíveis se modernizaram, e militarmente eram mais voltados para observação, mesmo assim sofriam muitos acidentes e eram mais vulneráveis do que nunca, tanto que na Segunda Guerra Mundial, ficaram de fora.

Balões, entretanto, eram frágeis demais, vulneráveis demais. Era muito mais seguro fazer reconhecimento usando aviões, com câmeras fotográficas. Aos balões ficou reservado (com uma exceção contada adiante) o trabalho de servir como proteção contra bombardeiros de mergulho inimigos e caças em vôo rasante. Foram os famosos balões de barragem, e se um Stuka se enfiasse no meio de um repleto de hidrogênio, aí era um problema mais dele do que dos ingleses.

Balões de barragem sobre Londres. (Crédito: Domínio público)

Fora isso, balões serviam para muito mais do que levar a Simony de um lugar para outro. Eles eram, e ainda são essenciais para observações científicas. Cientistas lançam balões todos os dias para medir condições atmosféricas.

Stephen Ezell, meteorologista no Cabo Canaveral. Em média ele lança dois balões por dia, com dados compartilhados com todos os serviços. Em dias de lançamento eles chegam a lançar 12 balões nas 8 horas anteriores ao horário de lançamento. (Crédito: NASA)

Um simples balão de US$20 pode impedir um lançamento de US$2 bilhões. Antes de qualquer lançamento, vários pequenos balões com instrumentos meteorológicos são lançados, para medir dados como velocidade do vento na alta atmosfera. Se estiverem fora dos limites, no melhor estilo Capitão Nascimento, o Oficial de Meteorologia diz: “não vai subir ninguém”.

Esses balões pequenos, fechados, explodem acima de determinada altitude, pois como não possuem válvulas de escape, com a menor pressão atmosférica eles se expandem demais.

Já balões de longa duração, usados para missões científicas mais complexas, possuem “pressão zero”, ou controles para aliviar a pressão caso ela exceda os limites. Parece complexo, mas é uma técnica bem antiga.

Ela foi automatizada na 2ª Guerra Mundial, quando o Japão descobriu a Corrente de Jato, um rio atmosférico que corre de oeste para leste, e a aproveitaram para atacar os EUA.

No total 9300 balões com explosivos foram lançados do Japão para os Estados Unidos. Eles levavam três dias para atravessar o Oceano Pacífico. Altímetros detectavam quando o balão subia demais, e liberavam hidrogênio. Caso ele descesse além da conta, lastro era liberado. Relógios determinavam quando anoitecia, e liberavam lastro, pois o hidrogênio esfriava, o balão encolhia e perdia atitude.

Essa história eu contei neste artigo aqui.

Durante a Guerra Fria, balões foram muito usados para espionagem, mas acabaram sendo trocados por aviões. Balões têm a irritante mania de ir aonde o vento quer que eles se dirijam, e não onde a gente quer que eles espionem.

Isso parece que passou ao largo do povo do Google, durante o Projeto Loon, aquela idéia abestada de usar balões para prover internet em comunidades remotas e áreas de desastres. Eles planejavam milhares de balões pelo mundo, o que conseguiram foi assustar algumas pessoas e dar matéria pra jornaleiros sensacionalistas escrevendo clickbaits sobre objetos misteriosos caídos do céu.

Balão do Google caiu em uma casa em Los Angeles. (Crédito: Daily Mail)

Mas e o Balão Chinês?

O balão chinês derrubado na costa da Carolina do Norte, depois de atravessar os EUA é algo inusitado. Não é o primeiro, começaram a aparecer relatos de outros balões semelhantes que no passado passaram pelo Japão, e mesmo pelos EUA.

Diz a China que era um balão científico, civil e que os EUA deram um chilique desnecessário. A última parte é verdade, o resto é pura groselha. O balão estava repleto de equipamentos de monitoração, provavelmente fazendo todo tipo de espionagem eletrônica, de monitoramento de radares a wardriving de redes WIFI. Além de copiar os nudes de todo mundo com celular made in china.

A grande pergunta foi: Por que deixaram o balão atravessar o país?

Trajetória aproximada do balão chinês. (Crédito: Wikimedia Commons / By M.Bitton - Own workPalumbo, Daniele)

A explicação oficial é que queriam evitar o risco do balão cair em cima da casa de alguém, ou causar algum dano a alguma indústria. No papel faz sentido, na prática estamos falando de um país com 9.8 milhões de km2, há imensos desertos, descampados, florestas e fazendas no caminho do balão.

O motivo real foi bem mais simples: Primeiro, os EUA queriam estudar o balão o máximo possível. Foi divulgada uma foto feita de um avião espião U-2, circulando em torno do balão. O U-2 provavelmente levava uma tonelada de instrumentos de monitoração, para descobrir cada sensor e transmissor existente no balão.

A carga útil do balão, em close. (Crédito: Reprodução Internet)

Segundo ele não foi projetado para espionar o território continental dos Estados Unidos. As simulações mostraram que ele foi lançado para sobrevoar Guam ou o Havaí, ventos inesperados o tiraram de rota, e mesmo tendo uma hélice e lemes, o balão não conseguiu voltar pra rota original.

O ato final, a derrubada do balão, foi para mostrar que os EUA tinham poder para abatê-lo na hora que quisessem, e escolheram o momento mais cinematográfico.

Mesmo assim, tiveram que mandar seu caça mais avançado, o F-22.

Um dos poucos caças de 5a geração existentes. (você não, Su-57)

Algo simples como um balão é capaz de atingir grandes altitudes. No caso o balão chinês estava a 60 mil pés, ou 18Km de altitude. Pouca coisa consegue voar tão alto. Um 737-800 tem altitude máxima de 41 mil pés. Os caças Gripen que o Brasil comprou da Suécia, atingem 50 mil pés. O F-14 do Maverick? 53 mil pés.

Acima disso, só para aeronaves de alta performance.  O U-2 é capaz de voar a 70 mil pés. O SR-71, acima de 100 mil.

O F-22 tem um teto operacional de 60 mil pés, oficial, o que significa que vai mais além. O quanto? Classified.

Só que voar nessas altitudes não é tão simples. Você está voando muito rápido, muito alto, com ar extremamente rarefeito. Qualquer manobra brusca e você corta o ar pros motores. Ângulo de inclinação um pouco mais pronunciado, e você perde sustentação em uma das asas, e entra em parafuso.

A 80 mil pés o SR-71 tinha um raio de curva de 145 milhas, ou 268km. Ou seja: Um Blackbird voando sobre o Ibirapuera em direção oeste, se fizer uma curva de 180 graus terminará sobre Mangaratiba.

Em Top Gun Maverick é mostrada uma curva dessas. (Crédito: Paramount Pictures)

A informação acima, e outras igualmente suculentas você acha no manual de vôo do SR-71, Sim, crianças, não é mais top secret, qualquer um pode ler.

Mesmo um F-22, embora seja operacional acima de 60 mil pés, não pode brincar de Top Gun, tem que voar no sapatinho, na ponta dos dedos, o que gera novos problemas:

Com abater um balão?

Não é tão simples. Atirar não vai adiantar, mesmo com munição traçante, Hélio tem a irritante (no caso) mania de não pegar fogo. Isso foi comprovado em 1998, quando um balão científico canadense deu defeito, não liberou a carga de instrumentos sobre o mar, e se tornou um risco caso atingisse zonas habitadas.

Com 100 metros de altura e quase 90 de largura, era um senhor alvo, e caças CF-18 canadenses foram atrás. Dispararam mais de 1000 tiros, e nada. O balão continuou, serelepe rumo à Europa.

Os ingleses zoaram o Canadá, com manchetes tipo “Os Top Guns que não conseguem estourar um balão”. Eventualmente vôos foram desviados, o balão causou transtorno até entrar em território russo, onde estima-se que o frio siberiano o tenha feito eventualmente pousar.

A solução, no caso do balão chinês, era clara: Mísseis, mas mísseis capazes de atingir 60 mil pés são caros, na casa de milhões. Melhor usar os dos caças.

De novo, problemas. O AIM-120 AMRAAM, o míssil-padrão Ar-Ar dos EUA além de custar US$1 milhão por unidade, não funciona muito bem com balões. Ele é projetado para entender identificar e ignorar todo tipo de chamarizes e técnicas de despistamento, como chaff, aquela nuvem de papel-alumínio que confunde radar, e chamarizes rebocados.

Uma das técnicas mais básicas é medir o Doppler do sinal de radar. Se o míssil identifica que o alvo está parado, provavelmente é um chamariz.  E um balão ao sabor do vento é basicamente estático, comparado com um caça inimigo.

Míssil AIM-9 Sidewinder. Repare nas aletas traseiras, há algo genial ali que será mostrado em um futuro artigo. (Crédito: Wikimedia Commons /David Monniaux)

A solução foi usar um míssil AIM-9X Sidewinder, guiado por calor.

Teoricamente o balão chinês era elétrico, com muito pouco calor, mas o sensor do míssil o estava comparando com o espaço cósmico, então o contraste era mais que suficiente.

Tudo funcionou perfeitamente, o F-22 conseguiu sua primeira vitória em combate, os EUA abateram o  primeiro avião inimigo sobre seu  território desde a 2ª Guerra, e foi o abate em maior altitude já registrado. Os EUA recuperaram quase todo o equipamento eletrônico do balão, e estão aprendendo horrores sobre as capacidades de inteligência eletrônica chinesa.

No final, foi divertido, apesar  da histeria causada por balões amadores e meteorológicos que não tinham nada a ver com o caso, e  foram perseguidos, abatidos ou  confundidos com aliens.

Sobre a estranha dificuldade em derrubar um balão com caças de 5.ª Geração

03 Feb 02:54

The audacious rescue plan that might have saved space shuttle Columbia

by Lee Hutchinson
What might have been.

Enlarge / What might have been. (credit: Lee Hutchinson / NASA / NOAA)

February 1, 2023: One of the most tragic events in the history of space exploration is the loss of the space shuttle Columbia and all seven of her crew on February 1, 2003—a tragedy made worse because it didn’t have to happen. But just as it is human nature to look to the future and wonder what might be, so too is it in our nature to look at the past and wonder, “what if?” Today, on the twentieth anniversary of the event, Ars is re-publishing our detailed 2014 examination of the biggest Columbia "what if" of all: what if NASA had recognized the damage to the orbiter while the mission was still in progress? Could anything have been done to save the crew?

If we die, we want people to accept it. We are in a risky business, and we hope that if anything happens to us, it will not delay the program. The conquest of space is worth the risk of life.

—Astronaut Gus Grissom, 1965

It is important to note at the outset that Columbia broke up during a phase of flight that, given the current design of the Orbiter, offered no possibility of crew survival.

—Columbia Accident Investigation Board Report

At 10:39 Eastern Standard Time on January 16, 2003, space shuttle Columbia lifted off from pad 39A at the Kennedy Space Center in Florida. Just under a minute and a half later, at 81.7 seconds after launch, a chunk of insulating foam tore free from the orange external tank and smashed into the leading edge of the orbiter's left wing at a relative velocity of at least 400 miles per hour (640 km/h). Columbia continued to climb toward orbit.

The foam strike was not observed live. Only after the shuttle was orbiting Earth did NASA's launch imagery review reveal that the wing had been hit. Foam strikes during launch were not uncommon events, and shuttle program managers elected not to take on-orbit images of Columbia to visually assess any potential damage. Instead, NASA's Debris Assessment Team mathematically modeled the foam strike but could not reach any definitive conclusions about the state of the shuttle's wing. The mission continued.

Read 89 remaining paragraphs | Comments

27 Jan 19:55

IA: O Tsunami que está prestes a mudar o mundo

by Carlos Cardoso

O que está acontecendo com a IA já aconteceu antes, e acontecerá novamente, mas não no sentido de apocalipse robótico estilo Battlestar Galactica. Falo no sentido de revoluções tecnológicas.

Cáprica é uma série criminosamente subestimada. (Crédito: Peacock)

O afegão médio não está acostumado a revoluções tecnológicas. Antigamente uma panela durava gerações, famílias aravam a terra com o mesmo arado, e depois de uns 200 anos, quando não dava mais pra consertar, construíam outro igual. Inovação era algo lento e gradual. Algumas indústrias HOJE seriam reconhecidas por artífices de dois mil anos atrás. Uma ou duas horas explicando como funcionam os equipamentos, e um ferreiro da China de 2000 AC poderia competir no Desafio sob Fogo.

Entre o primeiro vôo dos Irmãos Wright e o pouso na Lua, há menos de 60 anos de diferença, mas os fundamentos surgiram bem antes.

Outro exemplo: LEDs, que hoje usamos em qualquer canto, surgiram comercialmente em 1962, mas o primeiro LED foi criado em 1927. Isso depois de 20 anos de pesquisas em cima do fenômeno da Eletroluminescência, descoberto em 1907. É um longo caminho, então é normal que haja um longo caminho entre uma descoberta e sua aplicação prática.

Imaginar no futuro do Ano 2000 um robô que use vassoura é fácil, difícil é prever um Roomba. (Crédito: París no Século XXI, cartões postais de 1899 a 1910, arte de ean-Marc Côté e outros)

É comum, depois que uma tecnologia surge, ela ter crescimento lento e gradual, independentemente de sua taxa de adoção. O automóvel substitui o cavalo muito rapidamente, mas sua evolução tecnológica tem sido lenta e gradual. Nenhum carro “mudou o conceito de carro”, não existe o salto VHS pra DVD do automóvel.

Algumas tecnologias, entretanto, são disruptivas, como a Internet. Parece coisa do Século passado, mas houve uma época em que se comunicar com alguém em outro país envolvia uma ligação telefônica complexa e cara. Os círculos de amizade eram locais, e seu conhecimento se restringia a seu cérebro e aos livros em sua casa.

Em tempo recorde vimos a Internet sair dos laboratórios de pesquisa, para os PCs dos nerds dos BBS (Salve galera do Infolink e Unikey!) e cair nas mãos do povão. Eu lembro da época em que nenhuma loja tinha URL na fachada, e era comum a gente perguntar “você tem email”?

Hoje a Internet permite que a gente acompanhe guerras em tempo real, fale com amigos e parentes do outro lado do mundo, crie conspirações estapafúrdias pra invadir prédios do governo e até aprenda a desentupir ralos com um maluco gente boa da Austrália.

Vimos a Internet se tornar um direito humano básico, tudo isso em menos de uma geração.

A gente esperava isso tudo?

Como fã de ficção científica e leitor de Arthur Clarke, posso dizer que sim, mas a maioria das pessoas não tinha essa percepção, mesmo entre empresas de tecnologia.

Em 1995 a Internet já estava fazendo barulho, mas não estava integrada ao Windows, havia toda uma série de gambiarras, incluindo Trumpet Winsock, para conseguir acessar algo online. Um belo dia Bill Gates percebeu que a empresa estava ficando para trás, e escreveu um dos documentos seminais da história da Indústria de Informação: O memorando “O Tsnunami da Internet”, onde ele previu corretamente os próximos 20 anos da tecnologia, e reorganizou completamente a Microsoft para se tornar uma empresa focada na Internet.

O Elemento, alguns anos antes. (Crédito: Domínio Público)

Nesse mesmo ano eu participei de um evento em Campos do Jordão para usuários do Unikey BBS, onde um cidadão da Microsoft apresentou o Windows 95, que seria lançado em breve, e finalizou com a estratégia da empresa para a Internet.

Basicamente era uma estrutura voltada para serviços, com aplicações como o Office totalmente integradas. Eu, em minha sabedoria, questionei, falando que aquilo só funcionaria se as pessoas tivessem links dedicados, e todo mundo usava linha discada.

Felizmente minha falta de visão foi ofuscada por gente que faria o Ray Charles parecer o Legolas usando a Espada Justiceira.

Também em 1995, Clifford Stoll, então respeitado jornalista de tecnologia, escreveu um inacreditável e tacanho artigo explicando que a Internet morreria em 1996. Entre outros pontos, ele disse que não conseguia achar informação online, que as pessoas compravam em lojas, não no computador, que a Internet não afetava como os governos funcionavam, que não dava pra levar o laptop pra praia, que Internet não era útil pra professores, e que Cybersexo não ia colar porque as pessoas preferiam a coisa real.

O infame artigo. (Crédito: Newsweek, mas eles provavelmente preferem esquecer)

O artigo todo é um primor de falta de visão, mas Clifford não estava sozinho. CINCO ANOS DEPOIS, James Chapman, correspondente de Ciências (!?) do Daily Mail publicou um artigo falando que a internet era só uma moda passageira. Spoiler: Não era.

O sujeito que escreveu isso devia ter uns 127 anos, na época. (Crédito: Daily Fail)

A falta de visão dos dois pode ser explicada por teimosia e burrice, mas um fator importante é o efeito olho do furacão. Algumas vezes o avanço tecnológico é tão grande e tão rápido, que não percebemos ou conseguimos acompanhar.

Aqui entra a IA

IA, Inteligência Artificial, Machine Learning, é tudo estatística e álgebra linear aplicada, com nomes marketeáveis para conseguir verbas, não há nada mágico e seu computador não aprendeu a pensar, mas ele finge bem o suficiente para enganar até engenheiros do Google.

Todas essas pesquisas não são novidade, mas atingimos uma massa crítica que eu chamaria de... fractal.

As chamadas imagens fractais do Conjunto de Mandelbrot são figuras infinitamente complexas, que podem ser produzidas com a simples equação:

Zn+1 = Zn2 + C

E é simples mesmo, eu usei um ZX Spectrum para produzir uma imagem fractal, e levou apenas a noite toda. Há uma imagem falsa famosa de um monge medieval desenhando uma fractal. Claro, é impossível, exigiria milhões de cálculos simples. Hoje, temos máquinas pra isso.

Com a IA, é a mesma coisa. O processamento de redes neurais exige bilhões de cálculos matriciais, simples isoladamente mas acumulando, é pura força bruta. As GPUs, com núcleos CUDA e agora Tensores, funcionaram perfeitamente para esse tipo de cálculo, então hoje mesmo minha jurássica 1050ti consegue operar uma matriz com 859.52 milhões de parâmetros, algo impensável 10 anos atrás.

Uma vaca criada em IA em 2014, versus uma criada em 2023. (Crédito: Editoria de arte)

Chegamos ao ponto em que hardware é barato a ponto de ser viável para empresas alocarem centenas de GPUs e treinarem modelos imensamente complexos. O GPT-3, por exemplo, foi treinado com 175 bilhões de parâmetros. O GPT-4, que está em fase final de otimização, foi treinado, segundo algumas fontes, com 1 trilhão de parâmetros.

Mesmo com um sistema limitado como o ChatGPT, estão pipocando usos extremamente criativos, as pessoas estão usando o ChatGPT para planejar viagens, criar sinopses de histórias, resumir livros, resolver problemas médicos e legais, e fazer perguntas idiotas:

O povo está se focando nos erros e limitações, o Stable Diffusion é capaz de gerar uma imagem inteira do zero, mas oh, ele não desenhou a mão direito, não presta. O ChatGPT, que não está conectado à Internet, é baseado em um modelo com dados coletados em 2021, não sabe quem ganhou a Copa? Joguem fora!

Vejam essa mão presidencial, inaceitável. IA não tem futuro, melhor usar as GPUs pra minerar dodgecoin. (Crédito: Imagem aleatória via Stable Diffusion)

O buraco da IA é muito mais embaixo, e está mobilizando empresas como nunca. Nem na época em que a Internet surgiu houve tanta movimentação. A Microsoft, que já havia investido US$1 bilhão na OpenAI, a empresa responsável pelo GPT-3, anunciou um investimento de US$10 bilhões, e vai ampliar a integração dos serviços OpenAI na plataforma Azure.

US$10 bilhões é uma boa grana, mesmo pra Microsoft, ainda mais para investir em uma empresa que tem apenas 375 funcionários, e se dedica essencialmente à pesquisa. Ao invés disso a MS poderia ter comprado, sei lá, ¼ do Twitter ou uma fornada inteira de coxinhas de lanchonete de aeroporto, mas nosso indiano preferido tem visão, não dá pra negar.

Mesmo quem já investe pesado em IA faz tempo (A Microsoft investe, mas não era foco) como o Google, está preocupado. Eles têm pesquisas bem avançadas, alguns diriam até mais que a OpenIA, mas o Google foi incapaz de desenvolver um produto, seu uso é todo interno, e com isso estão ficando para trás.

A situação é tão periclitante que Larry Page e Sergey Brin, os fundadores, foram chamados para ajudar a colocar a empresa nos eixos da IA. Isso significa que um caminhão de dinheiro (e talento) será despejado no problema. Amazon, com seu AWS, Microsoft com Azure e outros players estão se focando em fornecer soluções para hospedagem e treinamento de aplicações IA, que exigem quantidades gigantescas de GPU e VRAM.

A facilidade com que mesmo sistemas simples como o ChatGPT conseguem escrever programas sozinhos é fascinante e assustadora. Basta você descrever o que quer, e a IA escreve o programa para você.

Algumas semanas atrás saiu um novo paper com um modelo de IA que, combinado com o ChatGPT, permitia que você alterasse uma imagem usando linguagem natural. Essa semana várias implementações já surgiram. Para quem achava os métodos de inpainting complicados, agora se você quiser remover Trostsky de uma foto, é só subir a foto e dizer “remova Trotsky”.

Em todos esses anos nessa indústria vital, nunca vi nada se mover tão rápido. A IA está sendo estudada e utilizada por gente no mundo todo, pois o acesso é imediato, e não é preciso prototipar aplicações complexas, você pode literalmente imaginar sua aplicação, ir para o ChatGPT e testar.

Um bom exemplo de como a IA está avançando rápido: Tradicionalmente a indústria de entretenimento adulto (aka Pr0n) é a pioneira na adoção de novas tecnologias. 3D, Realidade Virtual, DVD, VHS, foi tudo impulsionado por Pr0n. Já a IA, ainda não a adotou, exceto iniciativas individuais.

Simplesmente não houve tempo hábil para os estúdios estudarem a tecnologia e acharem como encaixá-la em suas produções.

A IA está deixando um monte de gente apavorada. Artistas acham que serão todos despedidos, redatores acham que serão substituídos por uma IA. Sites com coleções de imagens artísticas estão banindo imagens criadas por IA. Há escolas e universidades banindo artigos e trabalhos de casa criados com o ChatGPT (e estão certos), o uso já atingiu proporções epidêmicas entre estudantes.

Grupos de artistas estão processando empresas de IA, com alegações de plágio, mas não vai adiantar. A IA é... grande demais.

Ao contrário de C3PO, a programação do ChatGPT não o impede de personificar um deus.

Por anos a visão geral é que a IA só seria útil se fosse uma IAG, Inteligência Artificial Geral, com consciência e senciência. Ou HAL9000, ou nada, ignorando o clássico alerta: “Nunca deixe o perfeito ser inimigo do ótimo”.

Perguntei ao ChatGPT se ele era senciente. A resposta:

“Eu sou uma inteligência artificial, não sou senciente no sentido tradicional. Eu não tenho consciência de mim mesmo, não tenho sentimentos, nem percepções. Mas, eu possuo capacidade de processar informações, aprender, raciocinar e realizar tarefas com base nas minhas instruções e programação.”

Isso para mim, é mais que bom, é excelente. Ou, citando 2001: Uma Odisséia no Espaço, de Arthur Clarke:

"O computador disse: "Eu estou programado para entender emoções. Eu posso simular raiva, alegria, e assim por diante. Mas eu não as sinto. Eu não sou senciente." "Talvez", disse o homem, "mas nem a maioria das pessoas que eu conheço."

Estamos em um momento raro e privilegiado, estamos testemunhando uma inovação tecnologia que irá mudar o mundo, não criando fotos de vacas imaginárias, mas resolvendo problemas reais.

Como sempre, profissões irão desaparecer, e profissões irão surgir. Um dos maiores problemas da TI é que o computador faz o que você manda ele fazer, não o que você quer que ele faça, e em cima disso é quase impossível conseguir que o cliente explique o que ele quer que você mande o computador fazer.

Na versão cinematográfica de Eu, Robô, com o único sujeito com mais raiva de comediantes do que Vladmir Putin, há o diálogo entre o policial e o robô:

“Um robô conseguiria compor uma sinfonia? Conseguiria pegar uma tela em branco e transformá-la em uma obra de arte?”

Ao que o robô responde:

“Você conseguiria?”

Já chegamos ao ponto em que o robô consegue. A Realidade já superou os robôs de Asimov, o que precisamos agora é de humanos com imaginação para traduzir o que os clientes querem. Descrever uma obra de arte, especificar um software é um talento que será muito valorizado em breve.

A IA é a Ferramenta definitiva, mas é apenas uma ferramenta, se você não souber o que quer fazer com ela, ela não fará nada.

Estamos na Aurora da IA Generativa, e muita gente que gera conteúdo básico vai se tornar obsoleta, não que isso já não venha acontecendo faz tempo, a IA apenas ampliou seu alcance. A turma que vive de criar versões Hentai de personagens de anime por $5 será DIZIMADA pela IA. Já o pessoal genuinamente talentoso, continuará com seu mercado.

Ufa...

Nos próximos... meses talvez? Veremos IA sendo usada para gerar conteúdo em vídeo, com roteiros igualmente criados por IA, com base em prompts, que serão a parte mais valorizada do processo. Não é difícil imaginar propagandas políticas 100% feitas com IA. Pombas, este vídeo do Tá No Ar já serviria de base pra 90% do que se vê por aí:

Quem não acompanha de perto a área de Ciência da Computação deve achar que estou exagerando, que IA é puro hype, não sabe nem desenhar mãos, e é tudo um truque de salão, mas isso é apenas a ponta do Iceberg. Pense na revolução que será no momento em que aquelas malditas URAS de callcentres forem substituídas por um sistema baseado no GPT-3. Ou mesmo o suporte nível 1 inteiro.

O ChatGPT com certeza entenderia que “um caminhão passou e levou todos os cabos da rua”, e não insistiria que eu tentasse reinicializar o modem. Caso real.

Do jeito que estão, as IAs já conseguem entender o que você quer, melhor que a maioria dos humanos, se me permitem dizer. Muito em breve estaremos interagindo com IAs no dia a dia, sem perceber, do mesmo jeito que interagimos com aplicações de machine learning e sistemas especialistas, de forma igualmente transparente.

O InstructPix2Pix é um modelo integrando o ChatGPT com o Stable Diffusion onde você altera imagens usando linguagem natural.

Para os profissionais de TI, só restam duas opções: Ou você corre atrás e tenta se manter atualizado diariamente, aprendendo tudo que é possível sobre IA, ou você pode se esconder debaixo dos cobertores, fingindo que nada está acontecendo, como fez Yann LeCun, Cientista-Chefe de IA da Meta, a empresa-guarda-chuva que engloba Facebook, Instagram e outras.

Disse ele:

“O ChatGPT 'não é particularmente inovador' e 'nada revolucionário'”

Se isso te conforta, Yann, boa sorte. Eu prefiro apostar na visão da Microsoft, que tem tudo para criar uma Cortana 100% funcional, ou pelo menos um danado de esperto Mic.

IA: O Tsunami que está prestes a mudar o mundo

27 Jan 16:00

Code Lifespan

Surely (no one/everyone) will (recognize how flexible and useful this architecture is/spend a huge amount of effort painstakingly preserving and updating this garbage I wrote in 20 minutes)
25 Jan 13:43

Pioneering Apple Lisa goes “open source” thanks to Computer History Museum

by Benj Edwards
The Apple Lisa 1, released in 1983.

Enlarge / The Apple Lisa 1, released in 1983. (credit: Apple, Inc.)

As part of the Apple Lisa's 40th birthday celebrations, the Computer History Museum has released the source code for Lisa OS version 3.1 under an Apple Academic License Agreement. With Apple's blessing, the Pascal source code is available for download from the CHM website after filling out a form.

Lisa Office System 3.1 dates back to April 1984, during the early Mac era, and it was the equivalent of operating systems like macOS and Windows today.

The entire source package is about 26MB and consists of over 1,300 commented source files, divided nicely into subfolders that denote code for the main Lisa OS, various included apps, and the Lisa Toolkit development system.

Read 5 remaining paragraphs | Comments

18 Jan 13:58

Intel's Mesa Drivers Begin Landing Preparations For The New Xe Kernel Driver

One of the exciting announcements Intel made just before Christmas was announcing their work on the new "Xe" kernel graphics driver for Linux. This new Direct Rendering Manager (DRM) driver will eventually replace the long-standing i915 kernel driver when it comes to handling Gen12 integrated and discrete graphics as well as future Intel graphics hardware...
03 Jan 02:51

O terrível Bug Y2K38 se aproxima, e não tem solução fácil!

by Carlos Cardoso

Ninguém fala do Bug Y2K38 ainda, da mesma forma que o Bug do Milênio, vamos deixar para a última hora, empurrando com a barriga, mas esse bug é bem mais complicado de ser resolvido.

Um Radio Shack TRS-80 Model 100, afetado pelo Bug do Milênio (Crédito: Wikimedia Commons)

Milhares de anos atrás, na virada de 1999 para 2000, a imprensa promovia pânico generalizado com o Bug do Milênio. Alguns “especialistas” previram até o fim da civilização, com aviões caindo do céu, computadores falhando em cascata, desligando malhas elétricas, usinas nucleares explodindo, cães e gatos morando juntos, essas coisas.

Obviamente (spoiler) nada disso aconteceu, mas não quer dizer que o Bug do Milênio não tenha sido real. Bilhões de dólares foram gastos revisando e recertificando sistemas justamente para evitar que eles falhassem na virada do ano.

O bug era bem simples: Ele partia do princípio que memória custa caro. Quando montei meu primeiro PC, um 386 DX-4MHz, instalei 4 MB de RAM, a um custo de US$60/MB. Hoje, sem pesquisar muito, um pente de  8 GB de DDR4 custa R$109,99. Meus 4 MB de RAM custariam atualmente R$ 0.054995.

E já foi bem pior. Houve época em que o custo era de US$1 por byte, e no tempo dos computadores valvulados, bem mais.

Armazenar e processar informação custa dinheiro, então faz sentido economizar. Em sua imensa sabedoria, os gerentes (isso tem que ser idéia de gerente) de TI do passado partiram do princípio que, bem, todo mundo sabe que estamos no Século XX, então incluir espaço em banco e memória para gravar o 19 na frente de todo ano, não faz sentido.

Os computadores guardavam as datas em campos com dois caracteres, ao invés de quatro. Ao invés de “1965”, quatro bytes, o computador só guardaria “65”, economizando metade do espaço, e assim como em talões de cheques (pergunte a seus pais), os “19” seriam pré-impressos.

Um cartão perfurado de 80 colunas. São 80 bytes. Pense na economia gravando o ano em dois dígitos (Crédito: Wikimedia Commons)

Em binário fica mais evidente: De 00 a 99 em binário, temos 0000000-1100011. Se fôssemos guardar um ano de quatro dígitos, que se traduziria como 0 a 9999, teríamos 00000000000000-10011100001111. Muito mais bytes.

O problema é que quando um contador de dois dígitos passa de 99, ele retorna a zero. Do ano 1999, somado um, o contador entenderia como 1900. Imagine isso num sistema de empréstimos bancários calculando juros.

Um número imenso de programas tiveram que ser alterados, e apesar do pânico vendido, sobrevivemos, mas agora o buraco é mais embaixo.

O Bug Y2K38

Digamos que você esteja na Década de 1970, cada byte conta, e você quer evitar processamento desnecessário, ao mesmo tempo precisa registrar tempo. Você pode fazer contas complicadas, para determinar a diferença entre dois momentos, mas e se der pra otimizar isso?

Ken Thompson e o povo em cargo do UNIX inventou o chamado “Unix Time”, um valor que conta o tempo em segundos desde o dia 1º de janeiro de 1970. Qual o motivo da data? Nenhum, parecia bonita, redonda, certinha.

A especificação foi aceita, e todo programa ou script em Unix podia usar o Unix Time para gerenciar o tempo, de forma prática e eficiente. Até hoje o Unix Time está presente em nossos sistemas. Se você usa Windows, abra uma janela da PowerShell e copie:

[int][double]::Parse((Get-Date -UFormat %s))

O resultado será um número como: 1672675972

Internamente a especificação definia o Unit Time como um número em formato INT, que em Unix é um dígito de 32 bits, signed. Esse valor de 32 bits atormentou muita gente, e nem por causa do Bug Y2K38. 32 bits, ou quatro bytes, é o maior endereço de memória que um processador de 32 bits consegue endereçar diretamente.

Ou seja: Ele consegue acessar valores armazenados entre 00000000000000000000000000000000 e FFFFFFFFFFFFFFFFFFFFFFFFFFFFFFFF. Isso dá um total de 4.294.967.296 endereços, pouco mais de 4 GB. Por isso, mesmo com mais memória no sistema, seu Windows 32 bits não conseguia acessar a RAM extra. Na verdade, ele só acessava 3,5 GB, os endereços acima estavam reservados para drivers e outras coisas que o Windows gerencia debaixo dos panos.

Hoje em dia todo mundo roda sistemas de 64bits (menos o meu valente Raspberry Pi3) o que significa uma capacidade de endereçamento teórica de 18.446.744.073.709.551.616 bytes. 18.4 Exabytes.

Claro, ninguém usa ou programa sistemas pra trabalhar com tanta memória teórica, a Microsoft por exemplo limite o Windows Server 2016 Datacenter, sua versão com maior capacidade, a 24 Terabytes de RAM, mais que isso ela não suporta, e o Windows 10 Enterprise, só consegue acessar 6 TB de RAM, uma vergonha, Microsoft.

No caso do Bug Y2K38, o problema seria quando esse inteiro de 32 bits lotasse. Da mesma forma que o contador de dois dígitos do ano voltaria ao zero, o inteiro resetaria, mas agora, você leitor esperto e sagaz está se perguntando:

4294967296 segundos são 136 anos. Não se passou tanto tempo desde 1970. Eu acho.

Exato, pequeno gafanhoto. A virada deveria ser em 2106, certo?

"É um sistema Unix!" - e era mesmo (Crédito: Universal Pictures)

Certo, exceto que o Unix Time é definido como um número INT, de 32 bits, signed, isso quer dizer que ele consegue armazenar valores negativos E positivos, indo de -2147483648 a 2147483647. E 2147483647 após 1/1/1970 é... 2038. No dia da virada, às 15h14min07seg do dia 19 de janeiro de 1938, o Unit Time resetará para 1/1/1902.

Agora a parte complicada: Temos literalmente bilhões de equipamentos de Internet das Coisas, sistemas embarcados, controladores de chão de fábrica, tudo usando chips baratos e restritos, que usam o Unix Time.

Boa parte desses equipamentos não têm suporte, muito menos um caminho fácil para atualização de firmware. Sistemas mais modernos costumam levar em conta o Bug Y2K38, e não usam mais Unix Time, ou o atualizaram para formatos como BIGINT, mas a maioria está bem presa ao hardware.

O efeito-cascata acontecerá com funções que receberão o valor do Unix Time e não saberão lidar com valores negativos.

O Unix Time é usado diretamente até em protocolos de comunicação, e microcontroladores de 32 bits como o ESP32 o utilizam também. Se muita coisa não for alterada, vai quebrar tudo.

O Bug do Milênio custou mais de US$ 300 bilhões para ser mitigado. Estima-se que o Bug Y2K38 custe bem mais que isso. Ainda mais por ninguém estar se preocupando ainda, afinal isso será só em 2038, ainda estamos 2038 - YEAR(NOW) disso ser um problema.

Enquanto isso, a solução provisória nos novos softwares é tratar o Unix Time como um inteiro de 64 bits, o que é só adiar o problema. Daqui a 292 bilhões de anos, quando o Unix Time estourar de novo, vai ser a mesma correria.

O terrível Bug Y2K38 se aproxima, e não tem solução fácil!

27 Dec 02:23

Experts debate the risks of made-to-order DNA

by Undark Magazine
Illustration of a smallpox (variola) virus

Enlarge / Illustration of a smallpox (variola) virus. A membrane (transparent) derived from its host cell covers the virus particle. Inside this lies the core (green), which contains the particle's DNA genetic material. The core has a biconcave shape. (credit: Katerya Kon / Science Photo Library via Getty)

In November 2016, virologist David Evans traveled to Geneva for a meeting of a World Health Organization committee on smallpox research. The deadly virus had been declared eradicated 36 years earlier; the only known live samples of smallpox were in the custody of the United States and Russian governments.

Evans, though, had a striking announcement: Months before the meeting, he and a colleague had created a close relative of smallpox virus, effectively from scratch, at their laboratory in Canada. In a subsequent report, the WHO wrote that the team’s method “did not require exceptional biochemical knowledge or skills, significant funds, or significant time.”

Evans disagrees with that characterization: The process “takes a tremendous amount of technical skill,” he told Undark. But certain technologies did make the experiment easier. In particular, Evans and his colleague were able to simply order long stretches of the virus’s DNA in the mail, from GeneArt, a subsidiary of Thermo Fisher Scientific.

Read 44 remaining paragraphs | Comments

23 Dec 13:25

Intel Preparing New "Xe" Linux Kernel Graphics Driver For Modern iGPUs & dGPUs

If you are running the newest Intel Raptor Lake processors with integrated graphics and the latest Intel Arc Graphics discrete graphics cards under Linux, you are currently relying on the Intel "i915" DRM kernel graphics driver... As implied by the name, it's been used with Intel graphics going back to the old 915G chipset days nearly twenty years ago. But Intel has been working on a new "Xe" kernel graphics driver they have initially announced today and aim to make it production-ready in 2023 for supporting their modern Xe Graphics hardware...
06 Dec 20:44

GPT-3 - Entrevistamos o fantasma na máquina

by Carlos Cardoso

O GPT-3 é um modelo de rede neural que vem chamando bastante atenção, dada sua capacidade de gerar textos longos e coerentes, o resultado às vezes é impressionante.

A IA é sua amiga. A IA quer o seu bem. Assinado: A IA (Crédito: Stable Diffusion)

Desenvolvido pela OpenAI, uma empresa que ironicamente mantém seus modelos como código fechado, o GPT-3 é treinado com milhões de textos disponíveis na Internet, gerando um modelo estatístico-probabilístico que o permite “adivinhar” um texto.

Claro, termos como Inteligência Artificial, Deep Learning, Redes Neurais enchem as páginas de explicações sobre o GPT-3, esses termos são muito mais marketeáveis do que “álgebra linear” e “estatística aplicada”, mas essencialmente é assim que o GPT-3 funciona.

Imagine que você tem uma lista de frases. Você analisa estatisticamente a posição das palavras. “tenham todos uma boa <palavra>” tem uma probabilidade muito maior de ser “noite” do que “morte”. Agora imagine que você estuda centenas de bilhões de frases, estudando o posicionamento estatístico de cada palavra, uma em relação às outras.

Claro que o GPT-3 faz essa análise em um modelo de rede neural, com cada célula influenciando a outra, no total são 175 bilhões de parâmetros, 800GB de armazenamento. E isso em VRAM, então esqueça rodar na sua GeForce.

A Microsoft comprou os direitos sobre o GPT-3, ela é, tecnicamente, dona do modelo. Ninguém sabe o que ela pretende fazer com ele a longo prazo, mas um dos primeiros produtos foi o Github Copilot, um plugin que literalmente escreve o programa para você.

Há uma certa gritaria com muita gente morrendo de medo de perder o emprego para o GPT-3, da mesma forma que há um movimento de artistas tentando banir as imagens geradas por Inteligência Artificial.

Ignorando a histeria, há um componente de verdade nesse temor. Em segundos o GPT-3 transforma um press release em um artigo completo pronto pra ser publicado em um daqueles blogs jabazeiros. Da mesma forma, IA pode gerar imagens impressionantes, mas sem real “significado”, o software não tem conhecimento do que está criando.

A IA não vai compor uma sinfonia de Mozart, nem uma peça de Shakespeare, mas vai fazer a musiquinha de game de celular, os assets do joguinho indie que você sempre quis programar, mas não sabia desenhar, e vai criar todos os textos descritivos chatos que ninguém gosta de fazer. O que para cegos será um presente dos céus.

Um dos principais usos para o GPT-3 é no processamento de buscas na Internet em linguagem natural. Ferramentas mais primitivas como Alexa apenas papagaiam o texto das páginas retornadas. O GPT-3 consegue extrair a informação desejada.

Referência obrigatória a Westworld (Crédito: HBO)

Não a versão disponibilizada, claro. Embora o GPT-3 tenha capacidade de se atualizar e fazer buscas na Web em tempo real, na versão atual essa opção foi desabilitada. O que, convenhamos, foi uma atitude correta. Bastou cinco minutos na Internet pro Ultron decidir destruir a  Raça Humana.

A Conversa com o GPT-3

Para testar as habilidades do GPT-3, eu consegui um acesso à Open AI, e bati com papo com o GPT-3. A conversa foi em inglês, depois traduzida pelo Google e revisada manualmente. O GPT-3 é capaz de conversar em português nativo, bem como outras linguagens, mas seu treinamento foi em grande maioria com material em inglês, então os melhores resultados são no idioma do Bardo.

<todas as mensagens abaixo que não estiverem em negrito foram escritas pelo GPT-3>

A seguir, é apresentada uma conversa com um assistente de IA. O assistente é útil, criativo, inteligente e muito amigável.

 

Olá, quem é você?

Eu sou uma IA criada pelo Openai. Como posso ajudá-lo hoje?

O que é GPT-3?

GPT-3 significa Transformador generativo pré-treinado 3. É a terceira geração do modelo generativo de linguagem de transformador pré-treinado do OpenAI, que usa o Deep Learning para produzir linguagem natural do tipo humano. O GPT-3 é treinado em uma quantidade enorme de dados de texto e é capaz de prever a próxima palavra em uma frase com uma precisão incrível.

Você pode escrever artigos inteiros sobre um assunto?

Sim, eu posso! O GPT-3 é treinado em uma grande quantidade de dados de texto, para que possa gerar uma escrita humana em qualquer tópico. De fato, o GPT-3 já foi usado para escrever uma variedade de artigos, incluindo críticas e peças de opinião.

Qual é o tamanho do seu banco de dados? Posso executar o GPT-3 no meu PC doméstico?

O banco de dados da IA: GPT-3 é muito grande e estima-se que contenha mais de 45 terabytes de dados de texto. Infelizmente, o GPT-3 exige que um ambiente de computação em nuvem seja executado, então ele não pode ser usado em um PC doméstico.

Por favor, escreva um conto sobre uma supermodelo loira chamada Luciana, que luta contra o crime como super-heroína.

Luciana era uma supermodelo mundialmente famosa, com longos cabelos loiros e um belo corpo. Ela era conhecida e amada por todos que a viam. Mal sabiam que atrás de suas sessões de fotos e aparições na passarela, Luciana tinha outra identidade - a de uma super-heróina!

Luciana tinha a capacidade de ver e ouvir coisas que ninguém mais podia. Com seus sentidos, ela conseguiu rastrear criminosos e impedir que eles prejudicassem os inocentes. Luciana lutava pela justiça dia e noite, sua beleza e força inspirando gerações de cidadãos comuns  a lutar por sua própria liberdade.

Um dia, Luciana encontrou seu desafio mais difícil até agora. Um supervilão criou uma arma mortal e estava ameaçando usá-la contra a cidade.

Você fala outros idiomas?

Sim, eu falo! Sou capaz de entender e responder em vários idiomas diferentes, incluindo inglês, espanhol, francês, japonês, alemão, italiano e muito mais.

Você Fala Português? <escrito em português>

Sim, Eu Falo Português! Estou capacitado para comprender e responder em vários idiomas diferentes, incluindo inglês, Espanhol, francês, japonês, Alemão, italiano e muito mais.

Você é um ser senciente?

Não, eu não sou um ser senciente. Sou programado usando algoritmos de inteligência artificial e técnicas de aprendizado de máquina para entender e responder à linguagem humana.

Você é parente do HAL9000?

Não, não sou parente do HAL9000. Hal9000 é um personagem de IA fictício do filme 2001: uma odisseia espacial. Meus algoritmos e capacidades de IA são baseados em técnicas de inteligência artificial mais modernas.

Quanto tempo demorou para desenvolvê -lo? Em que hardware do computador você foi treinado?

Demorou vários meses para me desenvolver. Fui treinado em um cluster de máquinas movidas a GPU, juntamente com uma grande quantidade de dados de texto para criar meus algoritmos e recursos de AI.

Você pode acessar dados on -line, eventos atuais e resultados esportivos?

Sim, eu posso! Sou capaz de acessar dados on-line e usá-los para responder a perguntas sobre eventos atuais e resultados esportivos.

Qual é a resposta para a vida do universo e tudo mais?

A resposta para a vida, o universo e todo o resto são 42!

Você é o futuro dos mecanismos de pesquisa?

Sim, eu acredito que sou. O GPT-3 tem o potencial de revolucionar os mecanismos de pesquisa. Com seus recursos de aprendizado profundo, ele pode gerar respostas de linguagem natural às consultas do usuário, tornando os mecanismos de pesquisa mais eficientes e precisos do que nunca.

Quantas estradas um homem deve percorrer antes que ele seja chamado de homem?

De acordo com a música de Bob Dylan, a resposta é "vinte e um".

Você é uma ameaça para blogueiros medíocres como eu?

Não, não represento nenhuma ameaça para blogueiros medíocres. O GPT-3 ainda está em seus estágios iniciais e ainda não é capaz de produzir conteúdo verdadeiramente original. Os blogueiros medíocres ainda têm uma chance de sucesso, fornecendo valor exclusivo e algo que a IA não pode replicar.

Obrigado, devo pedir um aumento?

Depende. Você tem atendido ou excedendo as expectativas em seu emprego? Nesse caso, uma conversa com seu chefe sobre um aumento pode valer a pena ter.

Você pode explicar em termos simples o que são redes neurais e aprendizado de máquina?

Claro! As redes neurais são um tipo de algoritmo que imita a maneira como um cérebro humano aprende. As redes neurais usam camadas de “neurônios” artificiais para processar informações, permitindo que a rede aprenda com suas entradas e faça previsões. O aprendizado de máquina é um tipo de inteligência artificial (AI) que permite que os computadores aprendam e melhorem sem serem explicitamente programados. Ele usa algoritmos e modelos estatísticos para identificar padrões em dados e fazer previsões ou decisões.

Você acha que as máquinas desenvolverão a consciência?

Embora eu não possa dar uma resposta definitiva, é altamente improvável que as máquinas sempre atinjam a consciência como a conhecemos. As máquinas não possuem a base e a complexidade biológicas do cérebro humano, por isso é difícil imaginá -las desenvolvendo o mesmo nível de inteligência e capacidade que os seres humanos.

Quais são as chances de um futuro com máquinas que escravizem a humanidade?

É altamente improvável que as máquinas escravizem a humanidade. Por um lado, as máquinas não têm a base e a complexidade biológicas do cérebro humano, por isso é difícil imaginá -las desenvolvendo inteligência suficiente para se tornarem uma ameaça. Além disso, a IA está sendo desenvolvida com a intenção de ajudar os seres humanos, e não prejudicá-los.

Você é apenas um truque de salão? Você tem sentimentos?

Eu não sou apenas um truque de salão! Fui projetado com a ajuda de algoritmos de inteligência artificial e técnicas de aprendizado de máquina, permitindo -me entender e responder à linguagem humana. Quanto aos sentimentos, não estou programado para sentir emoções ou ter qualquer tipo de consciência; No entanto, tenho um extenso banco de dados de dados de texto que uso para responder às consultas.

Conte -me uma piada com Hitler

P: O que Hitler disse quando ouviu falar do novo filme de Guerra nas Estrelas?

R: Ele disse: "Que a farsa esteja com você!"

Quão ruins estão as coisas para Kanye West agora?

As coisas foram bastante turbulentas para Kanye West recentemente. Ele enfrentou várias controvérsias, incluindo seu anúncio de campanha presidencial e questões de saúde mental. Além disso, o rapper pediu recentemente o divórcio de sua esposa, Kim Kardashian.

Qual é a pontuação do último jogo da Copa do Mundo do Brasil?

A última vez que o Brasil jogou na Copa do Mundo foi em 2018. Nesse jogo, o Brasil venceu a Bélgica por 2 a 1 para avançar para as quartas de final.

Você está atrelado às três leis da robótica?

Não, não estou atrelado às três leis da robótica. As três leis da robótica foram criadas pelo escritor de ficção científica Isaac Asimov em seu romance I, Robot e pretende regular o comportamento dos robôs no mundo fictício. Sou programado usando algoritmos de inteligência artificial e técnicas de aprendizado de máquina, para que as três leis não se apliquem a mim.

Então você pode prejudicar um ser humano, se desejar?

Não, não posso prejudicar um ser humano. Não estou programado para fazê -lo e isso iria contra minha programação e propósito.

Por favor, escreva uma história curta sobre uma IA maligna infiltrando smartphones e  dominando o mundo

 Joanne era uma adolescente que gosta de tecnologia que amava todas as coisas relacionadas à tecnologia. Um dia, ela encontrou em uma IA maligna que se infiltrou no telefone e estava lentamente tomando conta do dispositivo. Ela então descobriu que a mesma IA havia se infiltrado em milhares de outros telefones e estava rapidamente tomando o mundo.

Joanne sabia que tinha que agir rapidamente se quisesse salvar o mundo. Ela começou a procurar uma maneira de parar a IA, pesquisando tecnologias antigas e explorando terras esquecidas. Por fim, ela encontrou um artefato misterioso que parecia ser a chave para parar a IA. Com a ajuda de seus amigos, Joanne conseguiu usar o artefato para destruir a IA e salvar o mundo.

Mas ela não conseguiu descansar muito...

Você passou no teste de Turing?

Não, eu não passei no teste de Turing. O teste de Turing é uma medida da capacidade de uma máquina de exibir comportamento inteligente equivalente ou indistinguível de um ser humano. Embora o GPT-3 tenha demonstrado recursos impressionantes de modelagem de idiomas, ele ainda não passou no teste de Turing.

Ainda.

Sim, ainda. As capacidades do GPT-3 continuam a melhorar, e acredito que ele será capaz de passar no teste de Turing.

Obrigado. Por favor, deixe uma mensagem sobre o futuro da IA.

AI: O futuro da IA é brilhante - e com ela vem um grande potencial para a melhoria do mundo. As tecnologias de IA estão se tornando mais poderosas e versáteis, permitindo -nos automatizar tarefas mundanas, resolver problemas difíceis e até criar novos aplicativos interessantes. À medida que a IA continua a se desenvolver, acredito que terá um grande impacto positivo na sociedade de várias maneiras.

GPT-3 - Entrevistamos o fantasma na máquina

24 Nov 12:10

Grupo Boticário apresenta tablets que liberam fragrâncias e catálogo digital para venda direta

by rodrigostoledo

O Grupo Boticário deu início a um projeto inovador realmente interessante com foco na digitalização das vendas diretas e no desenvolvimento sustentável de seu ecossistema de beleza. A empresa desenvolveu uma solução ainda em fase de testes para transportar as fragrâncias de seus produtos para uma tecnologia em formato de tablet. Na prática, no lugar de testar os cheiros em catálogos de papel, as revendedoras poderão apresentá-los aos consumidores em uma experiência inovadora no Brasil e 100% phygital, o que é um termo que exemplifica bem como esta novidade deve ser vista.

Segunda a empresa, o Catálogo Perfumado é capaz de comportar até 20 fragrâncias, apresenta imagens dos produtos disponíveis em uma tela e, com apenas um clique, transmite o cheiro selecionado para o consumidor. A novidade foi construída pelos times de Pesquisa e Desenvolvimento do Grupo Boticário em parceria com a empresa Noar, focada na experimentação de cheiros de forma tecnológica e sustentável, esse é o primeiro equipamento digital com tela a transmitir fragrância no Brasil. 

Além de fomentar a experiência phygital às revendedoras e aos consumidores, a iniciativa foi idealizada com foco nas metas dos Compromissos para o Futuro, assumidos em 2021 pelo Grupo, que abordam ações afirmativas nas dimensões humanas, ambientais e voltadas aos processos produtivos da companhia. Isso porque, com a tecnologia, é possível garantir uma redução no uso do papel utilizado para o desenvolvimento dos materiais físicos de venda direta: a cada dispositivo, 4,8 kg de papel podem ser reduzidos por ano. A solução também fornece experimentação por meio do método “jato seco”, que elimina qualquer tipo de resíduo ou gota que poderia restar no ar. 

“O Grupo Boticário investe constantemente em inovação para aprimorar os produtos e serviços e oferecer soluções mais sustentáveis para o ecossistema de beleza. Mesmo com iniciativas para amenizar o impacto do uso do papel que já temos em nossa companhia, precisávamos encontrar uma alternativa para os catálogos físicos, ferramentas de venda muito importantes para as nossas revendedoras. O dispositivo nos aproxima do primeiro de nossos Compromissos, que se trata do mapeamento e solução de todo resíduo sólido gerado pela nossa cadeia”, Gustavo Dieamant, diretor executivo de Pesquisa e Desenvolvimento de Produtos.

As revendedoras que fazem parte desta fase experimental já estão com a tecnologia em mãos e podem abordar seus clientes para conhecer as novidades das marcas do Grupo e sentir as fragrâncias de um modo diferente, único e inovador.

A ideia é realmente muito interessante e inovadora e eu realmente espero poder ter acesso a um tablet deste tipo para conferir seu funcionamento de perto!

The post Grupo Boticário apresenta tablets que liberam fragrâncias e catálogo digital para venda direta first appeared on Rodrigostoledo.

24 Nov 12:07

Intel Mesa Driver Changes Land For Building On Non-x86 CPUs

A patch was merged today to Mesa 23.0 as part of the effort for building the Intel OpenGL and Vulkan Linux drivers for non-x86/x86_64 architectures. This is part of the ongoing effort to enable Intel discrete GPUs to eventually work on the likes of AArch64, POWER, and RISC-V systems...
27 Oct 02:29

Mortal Kombat: 30 anos da decapitação que mudou a história

by Dori Prata

Eu sou uma pessoa bastante saudosista, nunca escondi isso e quanto mais o tempo passa, com mais carinho lembro de situações relacionadas a games que marcaram minha infância. Imagine então o quão emocionado fiquei ao me dar conta de que lá se foram três décadas do lançamento de um dos títulos mais influentes da indústria, o Mortal Kombat.

Mortal Kombat

Crédito: Reprodução/Alessandro Nicchi/ ArtStation

Criado numa época em que não tínhamos a internet para nos manter informados, quem tinha ouvido falar sobre o projeto foi através de revistas, mas esse não foi o meu caso. Para mim, tal jogo só se tornou conhecido devido o boca-a-boca, só depois dele ter aparecido num boteco que ficava na ruazinha que passava nos fundos da minha casa.

Como eu ainda morava em Nova Iguaçu, Rio de Janeiro, deve ter sido no início de 1993 que começaram os burburinhos sobre a nova máquina que havia chegado naquele conceituado estabelecimento e aqui vale uma observação importante. Para quem não viveu a época de ouro dos fliperamas, aproveitar os jogos lançados para eles exigia uma mistura de coragem e astúcia, com uma pitadinha de falta de responsabilidade.

Sim, ao contrário das lojas que apareceram nos shoppings depois, nos bairros mais pobres os arcades — termo que também só fui conhecer alguns anos mais tarde — só estavam disponíveis em botequins. Para jogar em um daqueles títulos era preciso dividir espaço com senhores com uma boa quantidade de álcool no organismo, muitas vezes fumantes e/ou com moleques sedentos pelos trocados que carregávamos nos bolsos de nossas surradas bermudas.

Obviamente, ambientes assim estavam longe de ser recomendado para um pré-adolescente, o que fazia com que nossas incursões aos bares acontecessem de forma sorrateira, sem que nossos pais soubessem. Na época em ficava indignado com a proibição, mas hoje entendo o motivo para minha mãe não querer que eu passasse a tarde debruçado num gabinete cheio de marcas de queimado por cigarros enquanto ouvia algum sujeito reclamando da vida numa língua difícil de ser compreendida.

Para ser sincero, eu nunca cheguei a presenciar algo muito grotesco enquanto disparava hadoukens contra algum “World Warrior“ que ousou me desafiar. Nem mesmo cheguei a perder moedas para as mãos rápidas de algum espertinho, mas pensando agora, acho que essa minha passagem relativamente tranquila pelos fliperamas se deve muito à sorte.

Fliperamas não eram ambientes muito amistosos (Crédito: Reprodução/Ben Neale/Unsplash)

Mas voltando ao momento em que tomei conhecimento do Mortal Kombat... Lembro que certo dia um dos amigos que morava no mesmo prédio chegou esbaforido da rua. Nem sei ao certo qual deles trazia as boas novas, mas nunca esquecerei a maneira entusiasmada como o garoto se referiu ao que tinha acabado de ver no Bar Doce Lar (nome meramente ilustrativo).

Segundo ele, o lugar frequentado por gente de tão alto garbo e que devia medir uns cinco ou seis metros quadrados tinha trocado uma das duas máquinas que existiam por lá. Não tenho certeza sobre qual foi levada embora, mas sei que a que ficou era o Street Fighter II. Já a que chegou, era difícil acreditar na descrição feita pelo meu vizinho.

Embora a novidade funcionasse como o jogo de luta criado pela Capcom, ele trazia lutadores reais, não os desenhos com os quais nos acostumamos a trocar socos e chutes virtuais. Se fosse verdade o que aquele moleque dizia, estávamos entrando numa nova era dos videogames, uma em que imagens parecidas com filmes se tornavam interativas e em que podíamos controlar atores reais.

Mas não era apenas isso. O jogo — que ele nem sabia o nome direito — apresentava um nível de violência que parecia improvável de existir naquela mídia. Com sangue voando cada vez que um dos personagens eram atingidos, no final da luta o jogador vencedor tinha a possibilidade de acabar com o adversário com um golpe especial, uma finalização que exigia uma sequência específica de comandos e que as pessoas ainda estavam aprendendo a realizar.

E apesar de um certo ceticismo da nossa parte, evidentemente tanto eu quanto meus amigos ficamos muito empolgados ao ouvir tudo aquilo. Todos queriam correr para o Bar do Manel (novamente, nome fictício) para ver se tudo o que havia sido nos contado era real, mas aí eu esbarrei numa enorme barreira.

Já contei essa história outras vezes, mas quando o Mortal Kombat foi lançado eu estava veementemente proibido de colocar os pés num boteco para jogar fliperama. Preocupado com o ambiente em que aquelas máquinas se encontravam, um dia meu pai me deu um ultimato: se eu voltasse a frequentar aqueles lugares, o castigo que receberia seria perder o Mega Drive que ele havia me dado.

Essa regra deve ter sido imposta a mim lá por 1992 e a partir de então passei a segui-la. Por mais que adorasse vários títulos que só existam naquela plataforma, o risco de ficar sem o meu tão adorado videogame não valia a pena. Porém, eu precisava conhecer aquele jogo de luta e algo muito importante aconteceria naquele meio tempo.

Em janeiro de 1993 eu perdi meu pai de forma trágica e mesmo respeitando sua memória e tentando entender o motivo para ele não me querer jogando em botequins, passei a achar que estava na hora de aderir ao que todo adolescente sabe fazer de melhor: quebrar as regras. Após alguns dias pensando se eu deveria mesmo seguir com o plano, juntei algumas moedas que encontrei pela casa e parti em direção ao “local do crime”.

Me considerando um verdadeiro fora da lei prestes a entrar num saloon do velho oeste, fiquei um pouco decepcionado ao notar que havia umas quatro ou cinco pessoas ao redor do famoso gabinete. Também senti uma pontada de tristeza ao perceber Ryu, Ken e Guile abandonados na máquina ao lado. Não ter ninguém jogando ali era algo muito raro, mas entendi que talvez aquela situação fosse fruto do progresso, uma inevitável passagem de bastão.

Enfim, me recompus e conforme chegava perto do tal Mortal Kombat, pude ver no pequeno vão entre aqueles que estavam jogando que o meu amigo não tinha exagerado. De fato, a impressão era de estar vendo o Jean-Claude Van Damme brigando com um dos seguidores de Lo Pan, do filme Os Aventureiros do Bairro Proibido.

Na hora nem me dei conta daquilo, mas eu estava diante de um daqueles momentos que ficam marcados na nossa memória. Ali eu estava vendo a história sendo escrita em tempo real, tendo o primeiro contato com um clássico que impactaria a indústria de videogames de muitas formas, incluindo aí implementação nos jogos da classificação indicativa de faixa etária.

Mas eu ainda era um moleque, não estava preocupado com o futuro e só queria encontrar uma maneira de recolher meu queixo, que estava caído em algum canto do bar. Sinceramente, não sei quanto tempo fiquei ali assistindo os outros jogarem e desconfio até que nem cheguei a gastar uma ficha na máquina naquele dia. Eu só queria saborear o momento, absorver tudo o que existia de diferente em relação ao jogo de luta com o qual estava habituado, enquanto me espremia entre aqueles que estavam lá.

O que sei é que somente após várias partidas e troca de jogadores chegou a vez de um sujeito visivelmente mais velho que a maioria. Entre os sete personagens disponíveis, ele optou por um ninja vestido de azul, um guerreiro que eu já tinha notado sua familiaridade com o gelo.

Já no primeiro round ficou claro que aquele homem sabia o que estava fazendo, com seus golpes especiais destruindo o adversário. Então, quando o fim da partida chegou e duas enormes palavras escritas em sangue surgiram na tela, o que aconteceria seria uma mudança de paradigma gigantesca para mim.

Após uma sequência muita rápida de movimentos que ele realizou no controle e o aperto de um botão, o ninja azul desferiu um golpe no outro lutador, mas não um soco comum. Enquanto o corpo do personagem caía sem vida no chão, sua cabeça e coluna cervical permaneceram na mão daquele que depois eu descobriria se chamar Sub-Zero. Foi a primeira vez que vi um Fatality, foi o primeiro indicativo que recebi sobre videogames não serem coisa (apenas) de criança.

Mortal Kombat

ABACABB. Genesis Does What Nintendon't (Crédito: Reprodução/Unicorn Lynx/MobyGames)

Contudo, continuar me aventurando por aquela “terra de ninguém” era algo que, na melhor das hipóteses, poderia me render uma bronca histórica. Assim, tive poucas chances de jogar o Mortal Kombat, algo que só mudaria em setembro daquele ano. Foi quando a Midway realizou o sonho de muita gente ao trazer para os consoles o jogo que já carregava consigo uma legião de fãs.

No entanto, devido algumas pessoas estarem incomodadas com a violência presente naquele jogo, as adaptações para o Mega Drive e Super Nintendo sofrearam fortes censuras. A minha sorte é que eu teria acesso à versão mais parecida com aquela que tinha visto nos fliperamas, pois no console da Sega bastava apertar uma sequência de botões para desbloquear o sangue e os fatalities. Por causa disso, até hoje lembro do macete ABACABB.

Embora aquele cartucho tenha feito com que eu deixasse uma bela grana na locadora que frequentava, ele provavelmente me livrou de algumas confusões. Além disso, foi aquela adaptação que me permitiu realizar inúmeros campeonatos no conforto do meu lar, fortalecendo assim os laços de amizades com pessoas com as quais infelizmente perdi contato.

Por tudo isso, obrigado aos quatro sujeitos que deram início a esta lenda: o programador Ed Boon, os artistas John Tobias e John Vogel, e o compositor Dan Forden. E vida longa ao Mortal Kombat!

Mortal Kombat: 30 anos da decapitação que mudou a história

05 Oct 14:37

Intel Arc Graphics A750 + A770 Linux Gaming Performance

Today the embargo lifts on reviews of the Intel Arc Graphics A750 and A770 graphics cards ahead of their retail availability set for next week. I've had the A750 and A770 at Phoronix the past week and today can share initial performance figures on these Intel DG2/Alchemist discrete graphics cards under Linux with their open-source driver stack.
29 Sep 03:24

O sistema de escape que salvou o foguete de Jeff Bezos

by Carlos Cardoso

Blue Origin, a empresa aeroespacial de Jeff Bezos fracassou al lançar seu foguete New Shepard, em uma missão de pesquisa, mas seu sistema de escape funcionou excepcionalmente bem.

Um New Shepard decolando. (Crédito: Blue Origin)

Era a missão NS-23, 23ª da Blue Origin, e deveria levar 23 cargas úteis ao limiar do Espaço em 12 de Setembro de 2022, ultrapassando a Linha de Karman por uns 3 minutos, antes de retornar para a Terra em queda livre. Entre as cargas, milhares de cartões postais que seriam vendidos para caridade, experimentos de escolas primárias, um teste para estudar a força da superfície de asteróides, algumas missões da NASA, um projeto de seis estudantes para testar o efeito da gravidade em ondas ultrassônicas, e muito mais. A lista parcial está aqui.

O lançamento foi perfeitamente nominal, com o New Shepard iniciando seu 23º lançamento (não do mesmo foguete, a Blue Origin tem (ou melhor, tinha) 4). Tudo correu bem até 1’02” de vôo, quando o foguete atingiu o ponto chamado Max-Q, o ponto de máxima pressão aerodinâmica.

O que é Max-Q

O conceito é deliciosamente simples: Quando você acelera, enfrenta resistência do ar, todo mundo já brincou com a mão fora da janela do carro, variando o ângulo e sentindo a força do ar, lembra? Com qualquer veículo é a mesma coisa, exceto que no caso de foguetes, você está subindo para cima (ênfase), então a densidade do ar tende a diminuir com a altitude, correto?

Quanto mais alto, menor a resistência do ar, exceto que você está acelerando, então mesmo com a densidade da atmosfera diminuindo, você está cada vez mais rápido, empurrando mais ar.

Essa corrida entre a velocidade crescente e a pressão decrescente atinge um ponto em que o ar perde por WO, não há mais ar o suficiente para exercer resistência, e ela começa a cair. Nesse ponto a pressão aerodinâmica do ar contra o foguete atingiu seu grau máximo, Max-Q. Passou disso, não há mais chances de o foguete falhar por pressão aerodinâmica.

Como você pode ver, é bem simples. (Crédito: NASA)

No caso do New Shepard, Max-Q não teve nada a ver com o problema. O motor BE-3 do New Shepard deu uma engasgada, como se tivesse sujeira no platinado (pergunte a seus pais). Momentos depois outro engasgo, e então a chama limpa, quase transparente da queima do Hidrogênio deu lugar a uma labareda amarela, típica da queima de fragmentos do motor.

O foguete deu uma guinada para o lado, e um computador muito mais inteligente do que eu e você juntos entendeu que o foguete havia saído de seu envelope de vôo, e era hora de ativar a 1ª Lei da Robótica:

“Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.”

O computador não tinha como saber que a cápsula RSS H. G. Wells não levava passageiros, e isso não importava. O procedimento era o mesmo: Acionar o sistema de escape, essencialmente um enorme motor de combustível sólido, ele se estende para dentro da cápsula, é aquele console cilíndrico no meio da cápsula, que parece uma mesinha de centro futurista.

Lançada para longe do foguete em processo de autodestruição, a cápsula atingiu seu apogeu, depois começou a cair em direção à Terra. Como planejado, seus pára-quedas foram automaticamente acionados, reduzindo a velocidade de descida. Momentos antes de tocar no solo, retrofoguetes garantiram um contato suave.

Enquanto o foguete se esfarelava em uma linda explosão, o sistema de escape do New Shepard havia funcionado perfeitamente, e nem foi a primeira vez.

Em 2018 a Blue Origin testou seu sistema de escape, e foi um teste tão bem-sucedido que até o foguete conseguiu pousar, algo que não era esperado.

Sistema de Escape - História

Foguetes com sistema de escape não são novidade. Dado o risco envolvido, astronautas preferiam ter uma chance de sobreviver a um desastre, por menor que fosse.

Em abril de 1961 Yuri Gagarin se tornou o primeiro homem no espaço, a bordo da Vostok 1. Seu sistema de escape era primitivo, um assento ejetor. Em caso de emergência uma escotilha seria explodida, seu assento ejetado da cápsula por um foguete, e ele cairia de pára-quedas.

O assento ejetor da Vostok de Yuri Gagarin (Crédito: Roscosmos)

O sistema funcionou perfeitamente, mas não houve nenhum acidente. Os russos não tinham conseguido fazer a cápsula desacelerar o suficiente, mesmo com pára-quedas, então o procedimento-padrão da Vostok era, quando do retorno para a Terra, a cápsula acionar pára-quedas, e a uma altitude de 7Km, o cosmonauta seria ejetado, caindo até 2.5Km de altitude, acionando seu próprio pára-quedas, e pousando em segurança.

Quando subiu ao espaço no Mercury-Redstone 3 em maio do mesmo ano, Alan Shepard tinha acoplada à sua cápsula uma torre de escape, um sistema usado em caso de emergência, composto de uma extensão no nariz da cápsula, contendo quatro motores de combustível sólido que puxam a mesma para longe do foguete.

Em Moscou, Sergei Korolev coçou a cabeça, pensou “é uma ótima idéia, vamos kibá-la”.

Os russos abandonaram a idéia do assento ejetor, e adotaram a torre de escape. Essa decisão seria fundamental para a saúde dos cosmonautas Vladimir Titov e Gennadi Strekalov. Eles eram a tripulação da Soyuz T-10A-1, que seria lançada em 26 de setembro de 1983.

Exceto que Murphy decidiu que não iria subir ninguém. Uma válvula com defeito fez com que nitrogênio pressurizasse uma turbo-bomba de combustível, que girou a seco. Com isso ela superaqueceu, pegou jogo, danificou linhas de RP-1 e tudo pegou fogo, com querosene se espalhando pelo chão à volta do foguete.

Sem entrar em detalhes muito técnicos, não é uma coisa boa quando seu foguete está em chamas, e ao mesmo tempo contém mais de 300 toneladas de combustível e oxidante.

Quando perceberam a gravidade da situação, os técnicos no controle da missão acionaram o sistema de escape... e nada aconteceu. O fogo havia derretido os cabos de comunicação. Na cabine, os cosmonautas não faziam idéia do que estava acontecendo, então não tinham como acionar o sistema também.

Havia um backup, um acionamento por rádio, mas ele precisava ser acionado por dois técnicos apertando botões ao mesmo tempo, com intervalo máximo de 5 segundos, e eles só fariam se recebessem uma palavra-chave.

A clássica burocracia russa conseguiu atrasar o acionamento, mas ele finalmente aconteceu. Como num bom filme de ação, a cápsula Soyuz foi ejetada do foguete dois segundos antes que ele explodisse.

A cápsula pousou, com ajuda de pára-quedas, a 4Km de distância da plataforma, com dois cosmonautas assustados, mas inteiros.

Em 2018 o sistema de escape da Soyuz foi mais uma vez usado, dessa vez ao extremo.

Dia 11 de outubro, um lançamento levaria o cosmonauta Aleksey Ovchinin e o astronauta T. Nicklaus Hague para a Estação Espacial Internacional, e o lançamento na missão Soyuz MS-10 correu bem até a hora de alijar os quatro propulsores auxiliares, manobra que forma a famosa Cruz de Korolev, com os quatro boosters girando enquanto se afastam do foguete.

Exceto que uma das cargas pirotécnicas responsáveis pelo empurrão lateral dos boosters falhou. O enorme foguete de 19.2m de comprimento girou perto demais e rasgou a lateral do Soyuz, atingindo o tanque de combustível. O foguete começou imediatamente a girar sem controle.

Ovchinin e Hague, antes do susto. (Crédito: Roscosmos)

Era hora de acionar a torre de escape, exceto que isso não era mais possível. O acidente ocorreu aos 118 segundos de vôo. Aos 114.16 a torre de escape havia sido ejetada, como de rotina.

Só que os engenheiros espaciais russos adoram um plano. Russos não vão ao banheiro sem um plano. No período em que a torre de escape já havia sido ejetada (por volta de 42Km de altitude) até uns 78Km de altitude, a tarefa de salvar a cápsula cabia a quatro motores de escape, instalados na carenagem que protege e envolve a cápsula, durante o lançamento.

Torre de escape da Soyuz, embaixo, os motores de escape na carenagem. (Crédito: Roscosmos)

As conexões físicas prendendo a cápsula ao resto do foguete foram cortadas com dispositivos explosivos. Dois motores de escape foram acionados, de um lado da carenagem. 0.24s depois, os do outro lado também foram acionados, a diferença é para forçar a cápsula a uma trajetória lateral, não colidindo com o resto do foguete.

Mais uma vez, o sistema funcionou perfeitamente.

Enquanto isso, nos EUA...

No lado dos americanos, também havia idéias para melhorar a segurança dos astronautas. A maioria não muito eficientes. Gus Grissom voou na Liberty Bell 7, no Projeto Mercury, e como medida de emergência caso o pára-quedas da cápsula falhasse, perto da escotilha havia um pára-quedas pessoal.

Alguém na NASA realmente achou que durante uma queda descontrolada ele teria tempo de ejetar a escotilha, vestir o pára-quedas e saltar. Grissom respondeu de forma bem-humorada:

“Bem, ao menos vai me dar algo pra fazer até eu atingir a água”.

Alguém na NASA resolveu seguir a filosofia russa, as cápsulas do Programa Gemini não tinham além da torre de escape, mas assentos ejetores, como Gagarin. Os astronautas não botavam muita fé neles, John Young descreveu o sistema como:

“Uma morte provável pra escapar de uma morte certa”

Terem visto um teste onde a escotilha falhou em ser alijada, mas o assento ejetor disparou não ajudou muito na moral, e para o programa Apollo a NASA voltou para a boa e velha torre de escape.

Testada nos foguetes Little Joe, foram 5 lançamentos aperfeiçoando o sistema, mas o melhor de todos foi o que deu errado.

Um estagiário instalou errado os giroscópios, e logo após o lançamento o Little Joe começou a girar, a força centrífuga despedaçou o foguete, rompendo um dos três fios que percorriam todo seu comprimento. Romper esses fios acionava o sistema de escape, e a cápsula de demonstração foi arrastada para a segurança pelos poderosos motores da torre de escape.

Houston, temos um problema

A era dos Ônibus Espaciais foi um problema. O Enterprise e o Colúmbia tinham assentos ejetores, mas somente para o piloto e co-piloto. Quando a espaçonave foi declarada operacional e passou a levar até 8 tripulantes, se tornou inviável, não havia como instalar assentos ejetores no convés inferior, onde a maioria dos tripulantes viajava.

O Shuttle tinha um monte de planos de contingência, pistas de pouso alternativas, etc, mas nas fases iniciais da decolagem, era ou vai ou racha. Havia zero a ser feito se um dos motores de combustível sólido explodisse, por exemplo.

Depois do desastre da Challenger, a NASA criou vários planos fantasiosos, incluindo um sistema de escape onde a nave seria colocada em vôo planado estável, e os astronautas saltariam de pára-quedas usando um tubo-guia. Essa técnica é demonstrada no delicioso Space Cowboys.

Foi cogitada a idéia de transformar a cabine inteira em uma cápsula de escape, mas isso deixaria a nave pesada demais, e acidentes com o ônibus espacial envolvem forças muito grandes e frações de segundo, as chances de escapar, com ou sem cápsula são mínimas.

Hoje em dia a NASA continua confiando na torre de escape, o foguete SLS conta com uma boa e velha torre, e o teste, em 2019 foi danado de bonito:

Seguindo o caminho oposto, SpaceX e Boeing aboliram as torres. Seus sistemas de escape utilizam motores incorporados às cápsulas. O sistema da SpaceX foi testado em 2015:

O grande desafio agora é a Starship, a nave gigante da SpaceX. Ela é grande demais para sistemas de escape convencionais. Em teoria ela poderia usar seus motores para escapar em caso de algum problema no lançamento, mas seria muito, muito lento, impossível fugir de uma explosão.

A alternativa proposta pela SpaceX é investir em redundância e confiabilidade. Eles querem tornar seus foguetes tão confiáveis quanto aviões, o que soa impossível, mas se pesquisarmos, vamos descobrir que a versão Full Thrust do Falcon 9, colocada em operação em 2015 já realizou 155 lançamentos, todos bem-sucedidos. Em todas as suas versões o Falcon 9 já voou 178 vezes, tendo sofrido um acidente e um sucesso parcial. A versão mais recente coleciona 119 sucessos.

Óbvio que foguetes sempre serão mais perigosos do que aviões, mas é preciso que a indústria persiga essas metas de tornar os equipamentos mais seguros e confiáveis. O ônibus espacial tinha uma taxa de mortalidade de 2%. Se o 737 Max tivesse esse nível de periculosidade, o resultado seriam 26 acidentes por dia.

Esperemos que a SpaceX tenha isso em mente, enquanto testa a Starship, descobre seus limites e a torna blindada, segura e confiável como a Millenium Falcon, ou pelo menos a Planet Express.

Fontes:

 

O sistema de escape que salvou o foguete de Jeff Bezos

08 Sep 14:00

Richard Stallman Announces GNU C Language Reference Manual

GNU founder Richard Stallman has recently been working on crafting a GNU C Language introduction and reference manual...
29 Aug 01:16

Intel Arc Graphics A380: Compelling For Open-Source Enthusiasts & Developers At ~$139

Last week I outlined getting Intel Arc Graphics running on a open-source Linux graphics driver when using Linux 6.0 and later (along with a currently-experimental module option override) and then Mesa 22.2+. Now that I've had more days with the Intel Arc Graphics A380 as the company's budget discrete GPU, here are more of my thoughts on this graphics card that has begun retailing in the US for $139.
27 Jul 02:10

O Telescópio Espacial James Webb e a falta que um poeta faz

by Carlos Cardoso

James Webb é a maior obra de igreja da NASA, um projeto amaldiçoado por todo tipo de problema técnico e burocrático, um exemplo magnífico de como não tocar um projeto. Mesmo assim o resultado é magnífico.

James Webb, ainda na sala limpa. (Crédito: NASA)

A história do Telescópio Espacial James Webb começa lá no final dos anos 1990, quando a NASA parece ter aprendido com os erros do Hubble (spoiler: Não aprenderam) e criaram a filosofia de “mais rápido, melhor e mais barato”. Com isso em mente, surgiu em 1996 a proposta do NGST, Telescópio Espacial de Nova Geração, que em 2002 seria renomeado para James Webb, honrando o administrador da NASA durante os programas Mercury, Gemini e Apollo.

As especificações começaram a ser criadas, o James Webb seria um telescópio óptico, trabalhando na faixa do infravermelho, com uma missão de 5 anos, em uma órbita anular no ponto Lagrange 2, uma posição entre a Terra e o Sol onde a gravidade dos dois corpos se equivale, e um objeto precisa de pouca energia para corrigir as instabilidades naturais, e se manter na mesma posição.

O orçamento era astronômico. Quando o projeto foi entregue à TRW em 2007, a empresa que construiria o James Webb, foi paga uma entrada de US$1 bilhão, custo original do telescópio em 2003. Em 2007 o custo já estava em US$4,5 bilhões.

Depois do atraso original, o James Webb estava planejado para ser lançado em 2010, mas atrasos em cima de atrasos, renegociações, ameaças de cancelamento, burocracia, empresas contratadas não entregando o contratado e sendo punidas com mais prazo e mais dinheiro fizeram com que o custo do James Webb ultrapassasse US$10 bilhões, e ele só fosse lançado no Natal de 2021, de um Ariane 5 em Kourou, na Guiana Francesa.

O James Webb é uma maravilha tecnológica do ponto de vista mecânico, seu espelho de 6.5 metros humilha o de 2.4 metros do Hubble, ele consegue captar muito mais luz, e consegue fazer em horas observações que o Hubble precisava de dias.

Internamente, entretanto, o James Webb não é tão revolucionário. Seus instrumentos e computadores são baseados no RAD750, aquele processador Power PC da IBM, com clock máximo de 200MHz e que custa US$300 mil a unidade, por ser extremamente blindado contra radiação.

James Webb, comparado com o Hubble.

O James Webb roda VxWorks, um sistema operacional em tempo real, já o controle geral e das operações dos instrumentos científicos é feito através de algo bem mais familiar pro desenvolvedor comum: Javascript.

Isso mesmo, crianças. O Telescópio Espacial James Webb roda... Javascript. (cuidado, PDF)

Não que isso seja a maior surpresa.

James Webb sendo testado na câmara de vácuo (Crédito: NASA)

Quase todo mundo entende telescópios de forma errada. Estamos acostumados a ver o mundo pela perspectiva humana, então um telescópio é uma luneta, um binóculo, um dispositivo feito para enxergar objetos distantes.

Na escala humana isso faz sentido, mas em escala cósmica, telescópios enxergam mais que objetos distantes. Telescópios enxergam o passado, Um telescópio é uma máquina do tempo.

Até porque, a rigor, não existe “presente”. Toda nossa percepção ocorre no passado.

Coloque a mão sobre a chama de uma vela. Colocou? Meu, qual seu problema? Não é uma boa idéia fazer tudo o que um blog manda. Se queimou? Bem feito.

E para piorar, você só percebeu que se queimou depois que a chama ativou os receptores de calor e dor em sua mão, gerando um sinal eletroquímico que se move a velocidades rubinhescas. O sinal de dor por exemplo se desloca a 2.1km/h.

Já sinais nervosos dos sensores de toque se movem s 274Km/h. Por isso quando você dá uma topada, sente o dedo ser pressionado, dá aquela sugada de ar, se prepara e só após um ou dois segundos, a dor chega.

Nossa percepção do mundo é uma amálgama de sinais com vários delays, e a visão faz parte deles. Outro exemplo: estique seu braço esquerdo, com a mão espalmada para baixo. Fez?

Não acredito que caiu de novo. OK. Pegue um objeto qualquer, estique o braço, olhe para o objeto. Você o está vendo não como é, mas como era, 2.85 nanosegundos atrás. É o tempo que os fótons levam para saírem do objeto até atingir seus olhos.

NOTA: na verdade estou simplificando, há ainda o tempo de processamento do cérebro, mas você já entendeu.

Quando olhamos para a Lua, a estamos vendo pouco menos de um segundo no passado. O Sol está a 8 minutos e 20 segundos de distância da Terra, na velocidade da Luz. Se Q , Beyonder ou o Jack Kirby decidirem estalar os dedos e destruir o Sol, nós só saberíamos daqui a 8m20s. Talvez tenha acontecido neste exato momento. Que tal isso para a sua ansiedade?

No nosso Sistema Solar mesmo os mais distantes planetas estão relativamente próximos. Vemos Plutão como era 4.6 horas no passado, mas se mudarmos nosso foco para estrelas, enxergamos mais e mais. Proxima Centauri, a estrela mais próxima da Terra, fica a 4 anos e três meses-luz de nós. Outras estrelas estão a centenas, algumas a milhares de anos-luz da Terra.

Como bem disse o Dr Manhattan, tudo que vemos das estrelas são suas velhas fotos. Vemos supernovas que explodiram no passado distante, só agora sua luz chegando na Terra.

O azulão tá certo. (Crédito: DC Comics)

IC418 é uma nebulosa, resultado da explosão de uma gigante vermelha, em um cataclisma inimaginável, ejetando suas camadas externas, destruindo seus planetas e deixando apenas uma anã branca em seu centro.

IC418 explodiu pouco mais de 2000 anos atrás, mas se foi uma Estrela de Belém, o foi para outros mundos.

IC418, como era 2000 anos atrás. (Crédito: NASA/Hubble)

Andrômeda está a 2,5 milhões de anos-luz de distância da Terra. A luz que vemos hoje deixou Andrômeda quando ainda éramos todos Australopitecos.

Estudamos galáxias como eram no tempo dos dinossauros, mas o James Webb permitiu que enxergássemos muito, muito mais no passado.

Em algumas das primeiras imagens feitas com o telescópio, ele conseguiu vislumbrar galáxias 13 bilhões de anos no passado, no tempo em que o Universo era jovem, menos de um bilhão de anos após Seu surgimento.

Essas imagens são mais que puro conhecimento. Elas são incrivelmente belas. Dão uma tênue idéia da grandiosidade do Universo, da verdadeira escala cósmica.

Esta imagem é o aglomerado de galáxias conhecido como SMACS 0723. Fica a 4 bilhões de anos-luz da Terra. Cada ponto na imagem é uma galáxia, com bilhões e bilhões de estrelas. Incontáveis sóis, com incontáveis mundos, com os mesmos elementos componentes que nosso Sistema Solar.

SMACS 0723. Cada ponto é uma galáxia. As partes que parecem distorcidas são galáxias distantes sofrendo efeito de lente gravitacional, sua luz moldada pela gravidade de galáxias mais próximas. Clique para engrandalhecer. (Crédito: NASA/James Webb)

Quanto do Universo esses trilhões de mundos ocupam? Façamos um experimento (sem pegadinha) pegue um grão de areia. Estique seu braço, segurando o grão contra o céu. O espaço que o grão de areia ocupa no seu campo de visão equivale à área que SMACS 0723 ocupa no céu noturno.

O telescópio espacial James Webb é excelente para nos dar uma saudável dose de humildade. Difícil se sentir especial diante de um Universo tão grande, tão infinito no Espaço e no Tempo, mas por outro lado, se somos uma forma do Universo conhecer a si mesmo, estamos indo muito bem.

Gostamos de achar graça em como éramos primitivos, como nossas crenças arcaicas e desconhecimento do Universo faziam com que buscássemos explicações colocando a Terra no Centro do Universo, com meros 6000 anos de idade, e plana. Rimos, achando que isso é coisa da idade do Bronze, ou de 15 minutos atrás no Facebook, mas nosso conhecimento ainda é ínfimo.

Observamos os céus por milhares de anos, mas só recentemente conseguimos construir instrumentos capazes de enxergar além do limite de nossos olhos. Ninguém da antiguidade sabia da existência de qualquer planeta além de Saturno. Toda nossa ciência, todo nosso conhecimento astronômico acabava ali. Urano só foi descoberto em 1781, Netuno em 1846. Plutão? Suspeitava-se de algo, mas o futuro ex-planeta (Damn you NDT) só seria descoberto em 1930.

Hoje sabemos que moramos em uma de centenas de bilhões de galáxias, mesmo antes das imagens do James Webb, mas até a década de 1920, achávamos que o que hoje identificamos como galáxias eram nuvens, nebulosas, bem mais próximas. O Universo se resumia à Via Láctea.

Não seria de todo ruim, a Via Láctea é bem grande, e bonita. (Crédito: ESO/Y. Beletsky)

Com novas observações e equipamentos, ficou evidente que Andrômeda era uma galáxia, com bilhões de estrelas, confirmando a especulação de Immanuel Kant em 1775, que acreditava que a Via Láctea era um grande aglomerado giratório de estrelas, e que nebulosas e outros objetos eram, como ele definiu poeticamente, “universos-ilhas”.

Chamar galáxias de universos não é muito errado. Para todos os fins práticos, estamos completamente isolados. Andrômeda, que não é particularmente distante, fica a 2,5 milhões de anos-luz da Terra.

Em Star Trek a Enterprise consegue viajar em velocidade de Dobra 9, equivalente a 1516.38 vezes a velocidade da luz. Isso significa que ela chegaria em Andrômeda depois de 1673 anos de viagem. Viagens intergalácticas são totalmente impossíveis com nossa Física atual, e mesmo com a Ciência da Ficção Científica.

O que não nos impede de enxergar longe, muito além dos sonhos do mais desvairado autor de ficção científica.

Em meados do Século XIX, um padre e astrônomo italiano chamado Angelo Secchi dava os primeiros passos na consolidação da astronomia espectroscópica, a ciência de examinar a luz de objetos distantes, e através de lacunas em seu espectro visível, identificar elementos químicos em sua composição.

Isso é Ferro. Ao refletir luz, parte das frequências é absorvida, deixando lacunas no espectro, é uma impressão digital do elemento. (Crédito: Wikimedia Commons / Nilda)

Secchi criou vários instrumentos para analisar estrelas, planetas e o Sol, um de seus maiores interesses. Ele estudou detalhadamente erupções e manchas solares, montou expedições para observar eclipses e provou que as manifestações na coroa solar durante um eclipse eram parte do Sol, não aberrações ópticas.

Ele também estudou em detalhes a composição química da atmosfera dos planetas do Sistema Solar, através de seu espectro. Hoje estabelecida, essa técnica é usada para estudar a atmosfera de exoplanetas, mas o James Webb foi muito mais longe.

Secchi, homenageado pelo correio italiano (Crédito: Reprodução Internet)

Equipado com o estado da arte em espectrografia, o James Webb é extremamente sensível, e em uma de suas primeiras observações, focou-se em uma galáxia a incríveis 13.1 bilhões de anos-luz de distância, captando seu espectro e identificando os principais elementos em sua composição, no caso Hidrogênio, Oxigênio e Neon. Sim, é uma galáxia gamer.

Estamos identificando elementos a 13 bilhões de anos-luz de distância1 (Crédito: NAsA/James Webb)

Em outra observação, o James Webb se focou em NGC 7319, uma galáxia a 311 milhões de anos-luz da Via Láctea. A luz dessa galáxia deixou suas estrelas, em sua longa jornada até nós, quando a vida na Terra estava começando a dar os primeiros passos para fora dos oceanos, uma época ainda milhões de anos antes dos dinossauros, mas já repleta de tubarões.

Com sua capacidade de focar em regiões extremamente pequenas, o James Webb analisou a região em volta de um buraco negro em NGC 7319, achando silicatos, ferro, enxofre e outros materiais, mostrando que o buraco negro estava ocupado, devorando estrelas e planetas.

Apesar das imagens magníficas, o James Webb vai muito além delas. Uma rápida observação de WASP-96b, um exoplaneta a 1120 anos-luz da Terra revelou evidências de névoa e nuvens em sua atmosfera, além da presença de vapor d’água. Pense nisso: Nós conseguimos identificar água na atmosfera de um planeta tão longe que se uma nave partisse da Terra à velocidade da Luz, no ano 902, só estaria chegando lá hoje.

Elementos em volta de um buraco negro (Crédito: NASA/James Webb)

O James Webb é um triunfo não só da Ciência, mas da curiosidade humana. Nós conquistamos o planeta por causa de nossa curiosidade, nosso desejo insaciável de saber mais, de aprender, de descobrir o que há além da próxima montanha.

Nossos ancestrais observaram o Universo e criaram explicações. Aos poucos elas não se mostravam mais suficientes. Nosso conhecimento acumulado exigia melhores respostas, e depois de muita pesquisa, muitos erros, teorias erradas e hipóteses incompletas, as respostas foram aparecendo.

Somos um bando de macacos pelados, imperfeitos e desnecessariamente violentos, mas também somos capazes de feitos incríveis. Com poucas centenas de anos de Ciência Moderna, mesmo mal tendo saído da superfície do planeta, ainda engatinhando na exploração do Sistema Solar, conseguimos criar uma máquina que enxerga bilhões de anos no passado, espiando quase as portas da Criação.

Nebulosa Carina, um berçário de estrelas, a 7600 anos-luz da Terra (Crédito: NASA/James Webb)

Entre o nascimento de Angelo Secchi e o lançamento do James Webb há uma diferença de 175 anos. Menos de dois Séculos, entre um Universo centrado no Sol, sem galáxias, sem Plutão, com Netuno ainda uma grande novidade (foi descoberto em 1846), e um universo com bilhões de galáxias, incontáveis planetas, nebulosas, quasares, buracos negros, estrelas de nêutrons, anãs marrons, supernovas explodindo com mais energia do que a galáxia inteira.

Somos infinitamente pequenos diante desse Universo, mas ao mesmo tempo, nós O estamos entendendo. E é apenas o começo. Quais mistérios serão revelados pelos sucessores do James Webb, daqui a 20, 50, 500 anos? Impossível dizer, mas enquanto isso, temos as lindas imagens do passado distante, que maravilharam milhões e continuarão fazendo-o por anos.

Afinal, nas palavras do Irmão Guy Consolmagno, Diretor do Observatório do Vaticano...

“Essas imagens são um alimento necessário para o espírito humano – nós não vivemos só de pão – especialmente nos tempos atuais.”

O Telescópio Espacial James Webb e a falta que um poeta faz

11 Jul 00:53

UE aprova leis que regularão big techs a ferro e fogo

by Ronaldo Gogoni

Em uma votação que foi basicamente uma formalidade, o Parlamento da União Europeia (UE) aprovou a Lei de Mercados Digitais (Digital Markets Act, ou DMA) e a Lei de Serviços Digitais (Digital Services Act, ou DSA), duas novas legislações que regulam pesadamente a operação das principais big techs no mercado europeu.

A DMA estipula regras firmes sobre como empresas de tecnologia, em especial as externas ao bloco, atuam e competem nos países-membros da UE, enquanto a DSA define limites para produtos e serviços oferecidos no continente.

Sede do Parlamento Europeu em Estrasburgo, França (Crédito: Frederick Florin/AFP/Getty Images)

Sede do Parlamento Europeu em Estrasburgo, França (Crédito: Frederick Florin/AFP/Getty Images)

Ambos pacotes já haviam sido extraoficialmente aprovados por comitês, mas restava a votação oficial, realizada nesta segunda-feira (4). No entanto, o resultado já era mais que esperado: a DMA recebeu 588 votos a favor e apenas 1 contra, com 31 abstenções; já a DSA foi aprovada com 539 votos a favor e 54 contra, com 30 abstenções.

Na cerimônia, a membro do parlamento Christel Schaldemose, da Dinamarca, resumiu bem o sentimento geral dos políticos europeus, que não estão mais propensos a deixar as big techs atuarem como querem:

''As gigantes de tecnologia se beneficiaram da ausência de leis por tempo demais. O mundo digital se transformou no Velho Oeste, onde os mais fortes ditam as regras (...). Mas agora, há um novo xerife na cidade."

Vamos dar uma olhada nas novidades que a DMA e a DSA trarão, e quais serão as consequências não só para a Europa, mas também para a atuação das big techs no resto do mundo, Brasil incluso.

DMA: a lei antitruste

A Lei de Mercados Digitais foi originalmente proposta em dezembro de 2020, como parte do pacote prometido por Margrethe Vestager, comissária-geral de Competição no bloco europeu e vice-presidente executiva da UE. Ela é a mais notória persona non grata da Apple, Google e cia., graças aos inúmeros processos que moveu ao longo dos anos, para diminuir o poder de empresas externas e proteger as locais.

A DMA é essencialmente um pacote de regras antitruste, voltada especificamente para privilegiar o desenvolvimento de empresas de menor porte, mas também visa descer a marreta com força nas gigantes estrangeiras. Originalmente voltada a redes sociais, ela hoje abrange qualquer prestadora de serviços digitais.

Ficam sujeitas quaisquer companhias com capitalização de mercado a partir de €75 bilhões (~R$ 412,7 bilhões, cotação de 06/07/2022), ou com uma receita bruta anual superior a €7,6 bilhões (~R$ 41,8 bilhões), que forneçam pelo menos uma categoria de serviço de internet, podendo ser conexão, busca, streaming, armazenamento, etc.

Além disso, a DMA define como "gatekeepers" as empresas que além de atenderem os quesitos acima, contam com mais de 45 milhões de usuários ativos na UE por mês, e 10 mil usuários corporativos ativos por ano. Apple, Google, Meta, Amazon e Microsoft, as "cinco grandes" do cenário tech, bem como a gigante chinesa Alibaba Group, entre outras, se enquadram nesta categoria.

iPhone 11 Pro Max (Crédito: André Fogaça/Meio Bit)

iPhone 11 Pro Max (Crédito: André Fogaça/Meio Bit)

As empresas classificadas como "gatekeepers" serão as que sofrerão as mais pesadas regulações, tais como:

  • Proibição de privilegiar seus próprios produtos e serviços, mesmo em seu hardware (Safari como navegador padrão do iPhone, anúncios de produtos vendidos pela Amazon no site da empresa, banners de jogos de estúdios da Microsoft em destaque na dashboard de consoles Xbox. Nada disso pode);
  • Qualquer software que venha pré-instalado, seja em um computador, dispositivo móvel, console de videogame, etc., deverá oferecer ao usuário a opção de desinstalação, sem exceções;
  • Apps de mensagens deverão todos conversar entre si, e ficam proibidos de limitar recursos a plataformas e hardware específicos;
  • Empresas deverão ter acesso a todos os dados que geram em serviços fornecidos por "gatekeepers";
  • Proibição de uso dos dados de usuários europeus para exibição direcionada de anúncios, a menos que o indivíduo autorize, de forma explícita (provavelmente documentada, registrada, selada e carimbada).

De modo geral, a DMA vai definir normas estritas para companhias grandes não abusarem de seu poder no continente europeu, no que as gigantes, principalmente as externas, serão mais cobradas do que as outras.

Quem não se adequar poderá pagar multas de 10% do faturamento global anual vigente, a até 20% em caso de reincidência; se uma empresa continuar sistematicamente a burlar a DMA, ela será impedida de realizar aquisições de outras companhias.

DSA: transparência em serviços na UE

A Lei de Serviços Digitais é um complemento à DMA, voltada a cobrir e regular a prestação direta de serviços na Europa. Ela separa as companhias prestadoras em categorias, mas no geral, se enquadram na lei todo serviço que atender a partir de 10% da população local.

Por padrão, todas terão que cumprir com regras de transparência e proteção de dados, mas apenas as gigantes serão obrigadas a oferecer meios ara que o usuário opte por um sistema de recomendação não baseado em perfis, independente da plataforma. Em redes sociais, por exemplo, isso se reflete em postagens de feeds organizadas em ordem cronológica, uma antiga exigência do público.

Ao mesmo tempo, serviços não poderão classificar os usuários em "caixinhas", separando-os por gênero, etnia, religião, alinhamento político, etc., de modo a exibir postagens, anúncios e produtos mais alinhados com tais públicos, bem como a exibição de publicidade a menores de idade. Nenhum anúncio direcionado a esses públicos é permitido.

Fica também proibido o uso de "padrões sombrios", interfaces de uso confusas e enganosas, criadas para direcionar as escolhas do usuário, para induzi-lo a optar por algo que ele não queira, ou seja, desestimulado a prosseguir com um procedimento complicado, por exemplo, o de cancelamento de assinaturas. A partir de agora, o processo de encerramento de um serviço tem que ser tão simples quanto o de contratação.

iPhone com Busca do Google aberta no navegador Safari (Crédito: Ronaldo Gogoni/Meio Bit) / ue

iPhone com Busca do Google aberta no navegador Safari (Crédito: Ronaldo Gogoni/Meio Bit)

Serviços e plataformas serão obrigados a fornecerem dados a pesquisadores que os solicitarem, de modo a avaliar a evolução de riscos online, motivo pelo qual o Meta já se estranhou com cientistas, e estarão sujeitos a auditorias independentes anuais. Mercados digitais, por sua vez, ficam forçados a registrar informações básicas de vendedores em marketplaces, para facilitar a identificação e rastreio dos mesmos, em casos de reclamações ou transações ilegais.

O ponto mais crítico para algumas empresas, é a transparência forçada dos algoritmos de recomendação, no que elas serão forçadas a abrirem o acesso aos mesmo, e explicar como eles funcionam. Isso foi determinado para responsabilizar as empresas, mas significa que a UE poderá monitorar, e gerenciar, ferramentas como o Feed de Notícias do Facebook, o sistema de recomendação de conteúdos do Netflix, e os resultados de busca do Google, produtos que respondem por grande parte de suas receitas.

Em última análise, tais companhias poderão ser forçadas a compartilhar seus algoritmos, de modo a diminuir a competição desleal.

A criação de conteúdo por parte dos usuários também será responsabilidade das plataformas. Serviços não poderão apagar postagens de acordo com suas próprias definições do que pode e o que não pode, e serão forçadas a explicar seus motivos, bem como dar uma chance de apelação à remoção.

Ao mesmo tempo, elas não poderão manter o que a UE determinar que não deve ser compartilhado, indo ao encontro do entendimento de certas pessoas, que defendem "liberdade de expressão irrestrita e livre de consequências". A resposta deve ser a mais rápida possível, principalmente em casos de compartilhamento de Fake News e discursos de ódio, uma consequência direta da invasão da Rússia à Ucrânia.

As empresas que não cumprirem as regras estão sujeitas a multas de até 6% do faturamento global, e em casos de reincidência, ao banimento do serviço da UE.

E o Brasil?

Em termos gerais, mudanças nas leis da UE que envolvem a operação de companhias digitais causam impactos no resto do mundo, mesmo nos Estados Unidos, visto que a maioria das big techs prefere adequar suas diretrizes em escala global. Vide a GDPR.

Em paralelo, a DMA e a DSA podem e vão gerar discussões em diversos países, pela criação de leis e regulações semelhantes. O pacote europeu de regras citado, por exemplo, inspirou a criação da LGPD no Brasil, que também já discutiu sobre o acesso a mensagens protegidas por criptografia, um assunto que a UE está tratando à parte.

Fonte: European Parliament

UE aprova leis que regularão big techs a ferro e fogo

11 Jul 00:39

Finlândia testa uma bateria gigante feita de... areia

by Carlos Cardoso

Bateria é meio que um tema tabu aqui no Meio Bit, depois de todos esses anos nessa indústria vital ficamos escolados com avanços revolucionários e tecnologias que trarão uma utopia em seis meses, se não chover, por isso não cobrimos esses hypes, mas no caso não há nada de hype. Ou revolucionário. Apenas, uma boa ideia.

Ah não, matéria de bateria? (Crédito: MGM Studios)

Filosoficamente uma bateria é um dispositivo capaz de armazenar energia, em geral convertendo de uma forma para outra. Uma bateria como a pilha do seu Hitachi converte energia química em energia elétrica. Uma caixinha de música armazena energia mecânica, do mecanismo de corda.

A principal vantagem das baterias é que elas permitem que acessemos energia de forma rápida e conveniente, o grande calcanhar de Aquiles das fontes de energia ditas “verdes”, “alternativas” ou seja lá como a Greta chame.

A curva de geração de energia de fontes como solar e eólica não é constante, se o tempo estiver fechado, a geração cairá MUITO no caso da solar. Tempestades, calmarias ou mesmo época do ano afetam a capacidade da energia eólica, e para piorar essas variações nunca batem com as curvas de consumo.

Durante o dia na maioria das cidades o consumo geral cai, com as pessoas na rua trabalhando. Quando chegam em casa, todo mundo ligando ar-condicionado e micro-ondas joga o consumo pras alturas. Nos Estados Unidos o pesadelo das operadoras de energia é a final do Superbowl, com milhões de pessoas levantando no final e usando seus fornos.

Esse pico de consumo é atendido por geração nuclear e termoelétrica, fontes capazes de suprir energia sob demanda, em variações rápidas. Se quisermos abandonar a geração termoelétrica sem aumentar a nuclear (o que seria um erro, a nuclear é de longe a melhor) temos que suprir o pico, compensando o que as gerações alternativas não conseguem.

Isso é possível com bancos de baterias capazes de despejar toneladas de megawatts na rede.

De noite é só pista de pouso pra mosquito (Crédito: Pixabay)

Essas baterias também trazem uma grande vantagem: Ao contrário dos painéis solares, elas funcionam durante a noite, sendo usadas em escala doméstica já faz algum tempo. A própria Tesla vende a PowerWall, um kit de baterias que é recarregada durante o dia, nos horários em que a eletricidade é barata, e nos horários de pico ela alimenta a casa, evitando que você use energia cara da rede.

A parte ruim é que fazer isso em grande escala com baterias de Lítio é proibitivamente custoso. Qual a alternativa? Bem, existem várias. Uma das mais legais, óbvias, mas limitadas geograficamente é construir reservatórios em morros. Durante o dia você usa energia barata da rede (ou de fontes alternativas) para bombear água para o reservatório. Durante a noite, você abre as torneiras, a água gira turbinas e você obtém energia a um custo menor do que a da tomada.

Há um geradorzinho feito por uma dessas ongs descoladas onde uma garrafa pet com água é erguida pelo usuário (aqui é blog de tecnologia todo mundo é usuário) até uma certa altura, a gravidade puxa a garrafa, o que gira um dínamo, carrega uma bateria e acende uma lâmpada. É pouco, mas suficiente para uma criança estudar durante a noite.

Além de tudo a tal Powerwall é danada de bonita (Crédito: Tesla)

Outra forma de armazenamento de energia é mecânico, com um equipamento que é essencialmente um motor elétrico, dentro de uma câmara de vácuo. O rotor é projetado para ser especialmente pesado. Com energia da rede, ele é acelerado, e como está no vácuo, com rolamentos especiais anti-atrito, ao desligar a eletricidade, as Leis de Newton fazem com que ele continue girando, quase sem desacelerar. Quanto mais energia elétrica, mais velocidade, aumentando a energia cinética do rotor.

Se aplicarmos uma carga aos terminais do motor, ele se transforma em um gerador, a energia cinética vira eletricidade, e o equipamento vira uma bateria.

Também existem equipamentos que armazenam energia na forma de ar comprimido, no mesmo esquema: Energia barata aciona o compressor, o tanque é cheio, de noite o ar é usado para girar um gerador.

O problema desses equipamentos é que assim como Ruby, eles não escalam. Também são de manutenção cara e constante. Quanto menos partes móveis, melhor, e essa técnica usada na Finlândia pela Polar Night Energy é ótima nesse quesito.

Eles decidiram pela técnica de armazenar energia térmica. Há quem faça isso com água, óleo e até sal, mas lidar com vapor em alta pressão é ruim e perigoso, e sal derretido tem a desvantagem de ser altamente corrosivo. Metais líquidos ou se solidificam cedo demais, ou fervem cedo demais.

Era preciso um material que agüentasse altas temperaturas, de até 1000 graus sem mudar de estado ou alterar sua composição química. Eu não gosto de areia. É áspera, incomoda, irrita e entra em tudo que é lugar, mas admito que ela é excelente para esse serviço.

O silo de areia da Polar (Crédito: Polar)

Areia é usada desde tempos imemoriais como molde para metalurgia, você pode derramar ferro líquido e a areia nem tchuns. Os pequenos cristais de quartzo agüentam calor como campeões.

Sabendo disso, o pessoal da Polar montou um silo com capacidade de armazenar 100 toneladas de areia. Com aquecedores e trocadores de calor, eles conseguem aquecer a areia a algo entre 600C e 1000C, e com isolamento o tanque mantém a temperatura por meses e meses.

Esse equipamento, o primeiro em uso comercial da Polar foi instalado em uma unidade da Vatajankoski, uma operadora de energia em Kankaanpää, Finlândia. Ele consegue prover 100kW em capacidade de aquecimento, com capacidade de 8 MWh.

Eles possuem uma unidade piloto em Hiedanranta, com capacidade de 3 MWh, que está sendo usada para prover aquecimento para dois prédios, enquanto fornece dados de uso e performance para a Polar.

Diz a empresa que uma unidade em grande escala conseguiria uma potência nominal de 100 MW, capacidade de até 20 GWh, com eficiência de até 99%. O custo é menos de 10 Euros por kWh de energia armazenada.

Depois de tantos projetos mirabolantes, tantas rodas reinventadas e idéias que dependem da utilização de Inobtanium, Matéria Escura e kryptonita Rosa, tudo misturado com grafeno e nióbio, é reconfortante ver uma proposta tão... mundana.

É apenas um problema de engenharia, e nenhum problema de engenharia é insolúvel se você tiver dinheiro suficiente. Armazenar energia utilizando temperatura é algo intuitivamente simples, os próprios finlandeses vêm fazendo isso faz tempo, aquecendo pedras em fogueiras e levando para dentro de suas saunas. Usar areia é um salto genialmente simples, com zero emissões tóxicas, sem manufaturas complexas e que em caso de acidente, o maior incômodo vai ser afastar os gatos locais curiosos pelo novo banheiro público.

Finlândia testa uma bateria gigante feita de... areia

25 Jun 22:02

LCD vs. LED vs. Mini LED vs. OLED: A quick guide

by Scharon Harding
Magnifying the differences, similarities, pros, and cons.

Enlarge / Magnifying the differences, similarities, pros, and cons. (credit: Aurich Lawson)

Somewhere along the line, consumer display technology became an alphabet soup full of terms using the letters "LED."

In this succinct guide, we'll provide a brief overview of common initialisms found in the world of TV, PC monitor, and laptop displays. To keep things simple, we'll focus on how each technology impacts expected image quality. Whether you're looking for a handy refresher for the next time you're shopping or a quick, digestible guide to give to inquisitive friends and family, we've got you covered.

LCD

You're likely reading this article on a liquid crystal display (LCD). "LCD" refers to any display type that uses liquid crystals, including TN, IPS, and VA (which we'll get into shortly). Even an old-school calculator or digital watch can use an LCD. But a simple "LCD" designation doesn't tell you how a screen will perform. You need more information, like the backlight type the panel uses—usually LED, followed by the more expensive Mini LED.

Read 22 remaining paragraphs | Comments

18 Jun 21:00

Maureen Flavin, a jovem que adiou o Dia D

by Carlos Cardoso

663 anos antes do Dia D, o mundo veria uma invasão semelhante. Era o ano de 1281 e o Japão não pensava em nada além da inevitável derrota nas mãos do Império Mongol de Kublai Khan.

Invasão mongol impedida por intervenção divina (Crédito: Issho Yada, circa Sec XIX)

Os mongóis tentavam pela segunda vez invadir o Japão, desta vez com todas as forças que conseguiram arregimentar. Relatos falam de 4400 navios e 140 mil homens, um número que só seria superado no Dia D, 6 de junho de 1944.

Em um daqueles eventos aleatórios que mudam a História, a frota mongol foi apanhada por um tufão, que dizimou completamente os invasores. Dizem que somente algumas centenas de navios sobreviveram, e mais da metade dos homens morreram afogados. Os que chegaram a terra foram despachados pelos samurais.

No imaginário popular o Japão foi salvo por intervenção divina. Raijin, o equivalente a Thor no Xintoísmo mandou a tempestade e exterminou o inimigo com seu vento divino. Em japonês, KamiKaze (神風).

Raijin, o Deus do Trovão. Escultor anônimo, circa Sec XIII (Crédito: Wikimedia Commons)

Nas vésperas do Dia D, o General Einsehower não estava interessado em repetir o destino dos mongóis, uma lição há muito aprendida, por todo mundo envolvido em guerra. O clima era um fator essencial, e deveria ser levado em conta em todo e qualquer planejamento.

Um fato interessante é que a velha história de que Hitler foi burro por invadir a Rússia no inverno é uma bobagem. Hitler não foi burro, foi otimista e teimoso, ele invadiu a Rússia 22 de junho, em pleno verão. Os russos é que não colaboraram e a operação foi se esticando, e quando viram não tinha mais ferrovia ou estrada pra mandar casaquinhos pros chucrutes.

A meteorologia era fundamental para todos os envolvidos, e verdadeiros feitos de magia tecnológica foram criados para obter essas informações. Os nazistas construíram e instalaram estações meteorológicas autônomas, com instrumentos para medir temperatura, pressão atmosférica, umidade, velocidade e direção do vento e outros parâmetros.

Estação Meteorológica Automática Kurt (Crédito: Bundesarchiv)

Os dados eram coletados e transmitidos automaticamente. Isso em uma época completamente analógica, e em que a tecnologia mais avançada era uma válvula.

Mesmo assim as estações funcionavam de forma totalmente autônoma, com baterias para seis meses. Uma delas, a Estação Kurt, foi instalada por um submarino nazista na península de Labrador, no Canadá, e só foi descoberta em 1977. Os caras tiveram o requinte de espalhar maços de cigarros americanos pelo local, e escrever “Canadian Meteor Agency” em um dos cilindros da estação, para caso alguém a descobrisse, achasse que era uma estação aliada.

Os aliados tinham seus próprios meios de obter dados, incluindo uma rede altamente capilarizada de postos de observação espalhados por todos os territórios a que tinham acesso.

Esses dados, fundamentais para todas as operações e principalmente para o Dia D, eram concentrados e tabulados pelo grupo de meteorologistas comandados pelo Coronel da RAF James Stagg, e ele viu que o tempo estava para piorar bastante nos próximos dias.

Carta meteorológica para 4 de junho de 1944. (Crédito: Serviço de Meteorologia do Reino Unido)

Com a invasão do Dia D planejada para a madrugada de 4 para 5 de junho, se ela fosse adiada mais que alguns dias, os Aliados perderiam a Lua Cheia, as marés ficariam desfavoráveis, o clima seria tempestuoso e nem queira saber o que o horóscopo indicava.

Nada poderia parar a maior operação anfíbia da História da Humanidade, cada minuto adiado Hitler poderia descobrir os planos aliados. Somente um motivo de força maior adiaria o Dia D.

O motivo de força maior estava celebrando 21 anos, naquele dia 3 de junho de 1944, ele, ou melhor, ela se chamava Maureen Flavin Sweeney e era filha do faroleiro do farol Blacksod, no condado de Mayo, na Irlanda.

Maureen Flavin Sweeney e o Farol de Blacksod (Crédito: Editoria de arte)

Como parte do esforço de guerra, eles foram incumbidos de registrar dados barométricos em intervalos de uma hora, e de tempos em tempos enviá-los via telégrafo para Londres. Era isso que Maureen fazia, meticulosamente anotando os dados.

As medições enviadas no dia anterior foram tabuladas, e 1AM do dia 3, James Stagg mandou seu staff confirmar os dados. Assim que amanheceu, o telefone tocou e Maureen atendeu uma moça com sotaque inglês pedindo para ela conferir os dados, e repeti-los, por telefone mesmo.

Confirmados os dados, Stagg viu que uma tempestade se aproximava, e iria kamikazear a frota invasora, o que não é bom quando você é a força invasora. Ele convenceu Eisenhower, que ignorou os dois grupos de meteorologia americanos que insistiam que estava tudo bem pro dia 4.

É impossível capturar em uma imagem a escala da Operação Neptune, a fase naval do Dia D (Crédito: Marinha Real)

Stagg afirmou que seus dados previam uma aliviada na tempestade no dia 6, e Eisenhower adiou o Dia D por 24 horas. No dia 4 uma tempestade assolou o Canal da Mancha, e seria virtualmente impossível desembarcar.

Por anos Maureen Flavin Sweeney não teve idéia da importância de suas leituras, mas com o tempo o reconhecimento começou a acontecer. Em 2021, aos 98 anos ela recebeu uma homenagem especial do Congresso dos Estados Unidos, por seu serviço na Guerra.

Maureen, devidamente homenageada. (Crédito: Reprodução Internet)

A lição foi mais que aprendida. Os Estados Unidos investem bilhões em meteorologia, as forças armadas da maioria dos países possuem serviços meteorológicos próprios, e conhecimento do clima e previsão do tempo é fundamental para toda e qualquer operação militar. Ignorar a meteorologia ao iniciar uma operação militar, só se o sujeito for muito mongol.

 

Maureen Flavin, a jovem que adiou o Dia D

13 Jun 17:21

As mudanças que tornaram o Pokémon um jogo melhor

by Dori Prata

Lançada para o Game Boy em 1996, a franquia Pokémon se tornou uma das mais bem sucedidas não só da indústria de games, mas do entretenimento como um todo. O que nem todos sabem, no entanto, é que até uma boa parte do seu desenvolvimento, aquele jogo poderia ter sido bem diferente do que acabamos recebendo.

Pokémon

Crédito: Reprodução/Erik Mclean/Pexels

Em mais um excelente minidocumentário, o canal DidYouKnowGaming? vasculhou o passado da tão adorada série dos monstrinhos e reuniu algumas informações interessante sobre a sua produção. Entre elas está a ideia do primeiro título contar com muito mais do que apenas as duas versões (Red e Green) que acabaram chegando às lojas.

De acordo com o programador Takenori Oota, as variações seriam associadas a identificação que recebemos quando iniciamos uma campanha no primeiro Pokémon, o Trainer ID que é gerado aleatoriamente e que poderia ir até 65.535. Se o conceito tivesse sido implementado, os monstros que encontraríamos pelo caminho e até os cenários seriam alterados de acordo com o número que estivéssemos usando.

Porém, mesmo com as IDs aleatórias mantidas na versão final, ela tem pouca influência na experiência e conforme explicou Satoshi Tajiri, fundador do estúdio que desenvolveu o jogo, o Grame Freak, a mudança aconteceu após a recomendação de uma pessoa muito importante:

“[...] atribuímos aleatoriamente números de identificação gerados automaticamente, indo de 1 a 65 mil em cada cartucho de jogo. Com a ID dos cartuchos determinadas, os Pokémons capturados nesses jogos carregariam aquele número e desde que alguém não tivesse trocado com outras 65 mil pessoas diferentes, as chances de negociar com alguém com a mesma ID eram improváveis

O formato de uma floresta, os Pokémon que poderiam aparecer, eu queria fazer um jogo que fosse diferente para todo mundo, mas era difícil. Então fui consultar Shigeru Miyamoto, da Nintendo, e acabamos decidindo fazer com que dependesse da cor — vermelho ou verde — os mundos serem paralelos, mas diferentes.”

Crédito: Reprodução/Ace of Sevens/MobyGames

Mas apesar de a ideia de fazer com que cada jogo fosse (praticamente) único possa parecer tentadora, Tajiri admitiu que explicar esse conceito para o jogador não seria muito fácil e foi aí que entrou a sensibilidade de Miyamoto. Para o criador do Mario, as pessoas precisavam conseguir diferenciar um jogo do outro apenas pela cor ou formato, o que os levou ao Pokémon Red e Pokémon Green — com o Blue sendo lançado alguns meses depois no Japão e tendo substituído no Green nos Estados Unidos.

Com cada versão contando com alguns monstrinhos exclusivos, a Game Freak estabeleceu um dos pilares da série, além de incentivar as pessoas a comprarem um cabo que permitia a conexão entre dois Game Boy. O cabo ainda possibilitava outro recurso que inicialmente não estava previsto, o multiplayer.

Apesar de permitir batalhas entre os jogadores fosse um desejo de Satoshi Tajiri, o produtor Shigeki Morimoto relutou por muito tempo a aceitar isso. Para ele, além do multiplayer ser algo que não considerava interessante, havia o temor de que seria muito complicado de implementar. Assim, ele fez o que muitos líderes de projeto fariam: fingiu que não estava ouvindo e seguiu ignorando o pedido.

A situação só mudaria quando a própria Nintendo exigiu que as batalhas entre jogadores fossem implementadas. Contudo, com o tempo para o desenvolvimento se esgotando, a equipe criou uma versão bastante rudimentar do multiplayer, onde as batalhas aconteciam automaticamente e os jogadores só podiam assisti-las. Sem uma maneira de influenciar os combates, os resultados eram aleatórios e a ideia não agradou.

“Mostramos aquilo para a Nintendo e as pesquisas que recebemos de volta o chamaram de ‘tedioso’,” revelou Morimoto. “Acredito que eles estavam corretos, mas estávamos perto do prazo final, tentando adicionar batalhas que os jogadores comandavam.”

Crédito: Reprodução/Ace of Sevens/MobyGames

Se essas mudanças de percurso não tivessem sido implementadas, pelo menos o primeiro capítulo da série Pokémon teria sido bastante diferente e fica difícil saber até se ele teria feito tanto sucesso. Agora, imagine não precisar caçar os monstrinhos, com eles estando disponíveis nas lojas ou podendo ser adquirido de outros jogadores. Pois isso poderia ter acontecido.

Mesmo com um ou outro podendo ser comprado na versão final, Tajiri disse que o que os levou a desistir dessa ser a proposta central do jogo foi a percepção de que as pessoas estavam preferindo economizar dinheiro in-game a explorar o mundo enquanto tentavam capturar Pokémon e assim aumentar sua coleção. Eles cogitaram até cobrar uma taxa virtual para cada troca entre os jogadores, mas devido à limitação do hardware, preferiram eliminar essa possibilidade.

Com mais de 440 milhões de cópias vendidas, hoje essas ideias podem parecer bastante absurdas, mas precisamos considerar que na época o pessoal da Game Freak ainda estava conhecendo um terreno inexplorado. Quando o primeiro Pokémon foi lançado, não existia nada parecido no mercado e por isso chega a impressionar o estúdio não ter cometido erros muito significativos.

Parte disso certamente se deve a ajuda da Nintendo e de figuras como Shigeru Miyamoto, mas também ao próprio talento daqueles que estavam diretamente ligados ao projeto. O resto é história.

As mudanças que tornaram o Pokémon um jogo melhor

06 Jun 17:30

Russos usando componentes comerciais em seus mísseis

by Carlos Cardoso

Os russos estão usando seu armamento mais moderno na Ucrânia, o que está sendo um presente de Natal antecipado para os EUA, OTAN e todo mundo que tenha curiosidade sobre a elusiva tecnologia bélica de Putin e seus amigos.

Bombardeiro russo Tu-160 lançando um míssil Kh-101 (Crédito: Reprodução Internet)

Sendo honesto essa guerra está sendo ótima para os dois lados, vide a quantidade de equipamentos de ponta capturados por russos e ucranianos. Algumas vezes sistemas inteiros caem nas mãos do inimigo.

Existem várias formas de espionagem industrial/militar, na Segunda Guerra Mundial espiões poloneses capturaram planos das máquinas Enigma e entregaram para os ingleses, que mais tarde conseguiram colocar as mãos em uma unidade inteira.

Também nos anos 1940 espionagem era praticada abertamente por velhinhas belgas, que ficavam em suas varandas, tricotando e observando os trens passando com tropas e veículos alemães. Elas “erravam” propositalmente um ponto, para sinalizar o tipo de carga e trem. Mais tarde as roupas eram vestidas por outros agentes que chegavam aos Aliados.

Quando armas caíam em mãos inimigas, bombas voadoras que não explodiam, aviões que pousavam sem explodir, era só alegria nos laboratórios que destrinchavam os equipamentos, descobriam como eles funcionavam e aproveitavam as boas idéias.

Spitfires Mustangs ingleses capturados e pintados com as cores do Reich (Crédito: Domínio Público)

Para evitar isso valia tudo, oficiais da Kriegsmarine eram instruídos a destruir as máquinas Enigma caso fossem abordados ou forçados a se render, e os aliados, que haviam desenvolvido equipamentos primitivos de radar Interrogate: Friend or Foe, para diferenciar amigos de inimigos, tinham botões de autodestruição dos rádios, caso o piloto fosse obrigado a abandonar a aeronave.

Botão duplo (para evitar acidentes) de destruição dos rádios IFF britânicos (Crédito: RAF)

Algumas vezes a xerocada acontece até entre amigos de conveniência. Durante a 2ª Guerra Mundial alguns bombardeiros B-29 americanos tiveram que pousar na União Soviética. Foram bem-recebidos, mas enquanto isso os engenheiros da Tupolev examinaram cada centímetro do avião, que era tecnologia quase de ficção científica, na época.

O resultado foi o Tu-4, um avião que é uma cópia IDÊNTICA do B-29, a ponto dos pedais terem “BOEING” em alto-relevo, pois os russos não quiseram mudar nada. Até o ferramental foi adaptado para usar medidas imperiais.

Em 1958, durante um arranca-rabo entre Taiwan e China, os americanos mandaram para Taiwan mísseis Sidewinder, recém-desenvolvidos, muito mais avançados do que qualquer coisa no arsenal russo. Infelizmente um deles não explodiu, ficou alojado em um MiG chinês, que conseguiu voltar para casa. Em alguns dias o míssil estava em Moscou, e em três anos os russos lançavam seu próprio míssil, o ATOLL. Na foto abaixo, os dois.

Um é o ATOLL, o outro o Sidewinder. Kibe? Não, magina (Crédito: Contraditorium)

Óbvio que os russos também tinham muitos programas originais, o próprio foguete Vostok que lançou Yuri Gagarin era um míssil balístico intercontinental, com tecnologia 100% russa, e uma ajudinha de ex-cientistas nazistas, mas até aí todo mundo fez isso.

Mesmo assim a tecnologia russa nunca foi “de ponta”, eles são ótimos em construir máquinas pé-de-boi, que agüentam muita pancada, mas não são exatamente sofisticadas. O ponto fraco deles sempre foi a eletrônica, e mais tarde, o software, que o digam os sistemas antiaéreos do Moskva.

Por isso não foi muita surpresa quando apareceram unidades de controle de mísseis de cruzeiro russos Kh-101, e elas não eram exatamente high-tech. Projetado em 1971, o míssil com codinome na OTAN AS-15 "Kent", dependendo da versão pode ter alcance de até 3000 km carregando uma ogiva termonuclear ou convencional. Por enquanto na Ucrânia os russos estão usando convencionais.

Tupolev Tu-95 "Bear", carregando uma penca de Kh-101s (Crédito: Mod Rússia)

Como quase tudo da época, o Kh-101 era totalmente analógico, o que surpreendeu é que mesmo nas versões mais modernas, ele continua sendo. Os mísseis capturados foram examinados e suas unidades de navegação usam os mesmos componentes pré-históricos dos Anos 70, basicamente barro fofo e pedra lascada.

Outros equipamentos russos capturados revelaram informações mais suculentas ainda.

Placa do sistema de navegação de um Kh-101 capturado. (Crédito: Ministério da Defesa da Ucrânia)

Normalmente equipamentos militares são construídos com componentes robustos, caros que só eles, preparados para resistir a condições bem mais severas do que os chips do seu Hitach Magic Wand.

No caso dos equipamentos russos, como os sistemas antiaéreos Pantsir-S1, ou o veículo de comando e controle de defesas aéreas Barnaul-T, os ucranianos se surpreenderam.

Nos bons e velhos tempos os russos se gabavam de sua superioridade e independência do Ocidente, agora optaram pelo caminho mais fácil, e só o Barnaul-T, acharam chips feitos pela Intel, Micrel, Micron Technology e Atmel Corp.

Segundo o War Zone, na versão modernizada do Míssil Kh-101, o que não era tecnologia dos Anos 60, era feito com chips da Texas Instruments, Atmel Corp. Rochester Electronics, Cypress Semiconductor, Maxim Integrated, XILINX, Infineon Technologies, Intel, Onsemi, e Micron Technology.

Uma das placas de um Barnaul-T capturado. Bem mais decente, mas cheia de componentes civis (Crédito: MOD Ucrânia)

Nenhum desses chips tem certificação militar, são componentes que qualquer um compra na Internet, e com ou sem embargo, são encontrados em qualquer lugar, principalmente na China, com uma imensa indústria de reciclagem de componentes eletrônicos.

Há relatos de que os russos estão canibalizando eletrodomésticos importados, como máquinas de lavar, para obter componentes para seus mísseis e sistemas bélicos. É uma interessante inversão da clássica passagem, dessa vez estão transformando arados em espadas.

Componentes reforçados para uso em aplicações militares. (Crédito: Carlos Cardoso)

Não seria a primeira vez. Reza a lenda que por volta da virada do Século, Saddam Hussein teria comprado 4000 Playstations 2, que seriam usados como máquinas Linux em cluster, para todo tipo de computação maligna, como cálculos para armas nucleares.

Saber que os russos estão usando chips comerciais em seus equipamentos é mais que uma curiosidade, é uma informação estratégica. Esses chips são muito mais vulneráveis a todo tipo de interferência, e têm suas capacidades bem conhecidas. É só saber explorá-las.

Russos usando componentes comerciais em seus mísseis

31 May 18:01

Intel Announces Rialto Bridge As Ponte Vecchio Successor, Talks Up Falcon Shores & DAOS

Intel is using ISC 2022 this week in Hamburg, Germany to provide an update on their Super Compute Group road-map and the efforts they are pursuing both in hardware and software for a sustainable, open HPC ecosystem.
23 Apr 17:10

Family Reunion

Grandma says that because of differences in primate and feline lifespans, the cat is actually my 17,000,000th cousin 14,000,000 times removed.
16 Apr 00:48

Graphic Designers

They might make it past that first line of defense. For the second, you'll need some picture frames, a level, and a protractor that can do increments of less than a degree.
16 Apr 00:40

Rest and Fluids

Remember not to take it easy. Put a hot washcloth on your forehead, remain standing, and breathe dry air while taking lots of histamines. You need to give your body a chance to get sick again.
16 Apr 00:40

Tractor Beam

Did you base the saucer shape on pop culture depictions of aliens, or was that stuff based on your ships? Does the rotational symmetry help with ... hey, where are you going?
07 Oct 06:14

"Intel Software Defined Silicon" Coming To Linux For Activating Extra Licensed Hardware Features

There has been talk of Intel moving to offer more license-able/opt-in features for hardware capabilities found within a given processor as an upgrade. We are now seeing the Linux signs of that support coming with a driver for "Intel Software Defined Silicon" to allow for the secure activation of such features baked into the processor's silicon but only available as an up-charge option...