Em 2025, o PHP (Hypertext Preprocessor) celebra três décadas de existência. Criado por Rasmus Lerdorf em 1995, o PHP surgiu como um conjunto de scripts para rastrear acessos a páginas pessoais, mas logo evoluiu para uma das linguagens mais utilizadas no desenvolvimento web.
Durante esses 30 anos, o PHP passou por diversas transformações e continua sendo a base de grandes ecossistemas. Frameworks modernos como Laravel, Symfony e CodeIgniter tornaram a linguagem mais poderosa, segura e adequada a projetos de todos os tamanhos.
Atualmente, cerca de 76% dos sites com back-end identificável na internet utilizam PHP, de acordo com dados da W3Techs (junho de 2025). WordPress, o sistema de gerenciamento de conteúdo mais usado no mundo, é inteiramente construído em PHP — o que mantém a linguagem em evidência e altamente relevante.
Embora plataformas como o Facebook tenham sido originalmente desenvolvidas em PHP, hoje elas utilizam tecnologias derivadas, como Hack, uma linguagem criada pelo próprio Facebook a partir do PHP, executada na HHVM (HipHop Virtual Machine), desenvolvida para desempenho superior.
A mascote azul, o simpático elePHPant, simboliza a comunidade vibrante e a longevidade dessa linguagem que cresceu junto com a internet.
Parabéns ao PHP pelos 30 anos de contribuições para o desenvolvimento web! Que venham mais inovações, projetos de código aberto e uma comunidade cada vez mais forte. 💙🚀
3 de novembro de 2024
GitHub Spark: Desenvolvendo aplicativos com IA
GitHub Spark nos transforma em desenvolvedores?
Um prompt, algumas instruções para aprimoramento e, no final, um aplicativo pronto para uso? É exatamente isso que o GitHub Spark se propõe a viabilizar. Quais são as capacidades e limitações desta nova ferramenta de IA, desenvolvida pela subsidiária da Microsoft?
Com o GitHub Spark, é possível criar aplicativos diretamente no smartphone, utilizando inteligência artificial.
Há três anos, o GitHub lançou o Copilot, uma ferramenta que assiste desenvolvedores na programação por meio de IA. Desde então, o Copilot vem sendo continuamente aprimorado, e a edição deste ano da conferência de desenvolvedores GitHub Universe traz novas inovações.
No futuro, o Copilot não estará limitado aos modelos de IA da OpenAI, permitindo integração com o modelo Claude 3.5 Sonnet da Anthropic e o Gemini 1.5 Pro do Google. Entretanto, o GitHub explora a IA além do Copilot, alcançando até mesmo aqueles que possuem pouco ou nenhum conhecimento em programação.
Com o GitHub Spark, pequenos aplicativos podem ser criados utilizando prompts de IA.
“A barreira de entrada para o desenvolvimento de software tem sido, por muito tempo, praticamente intransponível para a maioria da população mundial”, afirma o CEO do GitHub, Thomas Dohmke. Segundo ele, o GitHub Spark promete mudar essa realidade.
Com o Spark, o usuário pode criar microaplicativos, como são denominados pelo GitHub, utilizando comandos de texto simples. O processo é projetado para ser extremamente intuitivo: o usuário descreve as funcionalidades desejadas e o Spark implementa. O aplicativo pode ser testado imediatamente, e ajustes são feitos por meio de novos prompts, se necessário.
Esses microaplicativos rodam diretamente no Spark, sem necessidade de compilação ou gestão de bancos de dados. Para usuários com conhecimentos de programação, ajustes manuais no código gerado são permitidos, mas não exigidos.
O Spark permite também a personalização manual da aparência dos controles, além de oferecer a possibilidade de integrar prompts interativos ao aplicativo, de forma que os usuários possam interagir com ele.
Código gerado pode ser visualizado, embora não seja obrigatório (Imagem: GitHub)
Spark: disponível além do desktop
O Spark não se limita ao ambiente desktop, podendo ser utilizado em smartphones ou tablets. Isso possibilita a criação de microaplicativos em qualquer lugar.
Os aplicativos Spark podem ser publicados no GitHub e compartilhados diretamente com amigos ou colegas. No momento da partilha, é possível definir se os destinatários terão permissão para realizar alterações no aplicativo.
Limitações dos microaplicativos
O termo “microaplicativos” indica claramente que o Spark não oferece recursos para criação de softwares complexos por meio de prompts de texto. No entanto, a capacidade de desenvolver pequenas ferramentas para uso diário, pessoal ou profissional, sem necessidade de codificação, apresenta grande potencial. Ainda assim, o Spark não deve, no curto prazo, substituir desenvolvedores experientes.
A inteligência artificial (IA) não está limitada aos poderosos servidores em data centers. A revolução também acontece na ponta, onde microcontroladores pequenos estão lidando com tarefas de aprendizado de máquina (ML) e visão computacional (CV) diretamente nos dispositivos. Pensando nisso, a Avnet montou o Arduino Pro Edge AI/ML Vision and Speech Kit, ideal para explorar IA de baixo consumo.
O pacote inclui dois dispositivos principais: o Arduino Portenta H7, equipado com Vision Shield, e o Arduino Nicla Vision. Juntos, eles oferecem um ambiente completo para desenvolver projetos que exigem reconhecimento de fala e visão computacional na borda, minimizando latência e preocupando-se menos com privacidade.
Hardware que Impulsiona a Inovação
O Arduino Portenta H7 é a placa mais robusta, com uma arquitetura dual-core, alta conectividade e suporte a exibição de vídeos. O Vision Shield, que se conecta ao Portenta, adiciona uma câmera monocromática de baixa potência, microfones MEMS e porta Ethernet.
Já o Nicla Vision é compacto e fácil de integrar em projetos, contando com uma câmera colorida, sensor de distância e unidade de medição inercial. Ele se destaca pela simplicidade e capacidade de ser utilizado em aplicações que demandam pouca energia e alta flexibilidade.
Recursos para IA e ML na Ponta
Ambas as placas vêm com suporte a Wi-Fi e Bluetooth, e são compatíveis com plataformas como o Edge Impulse Studio para treinar modelos de IA e com o OpenMV, um ambiente que facilita a implementação de visão computacional com código em MicroPython.
O pacote também oferece duas licenças para o Arduino Speech Recognition Engine, permitindo reconhecimento de voz diretamente no dispositivo sem precisar enviar dados para a nuvem.
Documentação e Tutoriais
Quem é novo na plataforma não precisa se preocupar: o kit vem com 24 tutoriais que cobrem tudo, desde inicialização segura e aprendizado de máquina até como usar a câmera e reconhecimento de voz. Tudo isso torna o kit ideal para quem deseja experimentar e aprender sobre IA e ML na borda de forma prática.
Pronto para Começar?
O Arduino Pro Edge AI/ML Vision and Speech Kit está disponível para compra e é ideal para profissionais, estudantes e hobbystas que querem mergulhar no mundo da IA aplicada na borda. A versatilidade das ferramentas e a fácil integração fazem desse kit uma ótima escolha para projetos de IA compactos e de baixo consumo.