Onde estava toda a IA na WWDC 2023?
LarLar > Notícias > Onde estava toda a IA na WWDC 2023?

Onde estava toda a IA na WWDC 2023?

Jun 14, 2023

Com seu selo quebrado pelo lançamento do ChatGPT em novembro passado, a IA generativa entrou em erupção na sociedade dominante com uma ferocidade nunca vista desde a famosa desventura de Pandora com a caixa de miséria. De repente, a tecnologia está em toda parte, com startups e líderes do setor lutando para inserir esse recurso inteligente do dia em suas pilhas de código existentes e calçar a promessa transformacional de conteúdo gerado por máquina em todos os seus aplicativos. Neste ponto do ciclo de hype, você seria um tolo se não gritasse suas realizações genAI dos telhados; tornou-se rapidamente a única maneira de ser ouvido acima do barulho de todos os chatbots personalizáveis ​​e vendedores de slides do Powerpoint de autoprodução que inundam o mercado.

Se a última conferência de I/O do Google ou a nova equipe de desenvolvimento dedicada da Meta servirem de indicação, os maiores players da indústria de tecnologia também estão se preparando para apostar tudo na genAI. O evento do Google foi focado nas ambições de IA da empresa em torno de Bard e PaLM 2, talvez até mesmo em detrimento do hardware anunciado, incluindo os telefones Pixel Fold e 7a e o Pixel Tablet. Dos recursos Smart Compose do Gmail ao Real Tone e Magic Editor da câmera, do Project Tailwind aos papéis de parede generativos do 7a, a IA foi a primeira a falar de todos os executivos da Alphabet a subir ao palco da Shoreline.

Se você bebesse dois dedos toda vez que a Apple o mencionasse durante sua palestra na WWDC 2023, no entanto, você estaria totalmente sóbrio.

Zero - esse é o número de vezes que um apresentador no palco pronunciou a frase "inteligência artificial" na WWDC 2023. O mais próximo que chegamos de IA foi "Air" e o termo "aprendizado de máquina" foi dito exatamente sete vezes.

Ótimas ofertas em eletrônicos de consumo entregues diretamente na sua caixa de entrada, com curadoria da equipe editorial do Engadget. ver mais recente

Por favor insira um endereço de e-mail válido

Selecione um boletim informativo

Ao assinar, você concorda com os Termos e a Política de Privacidade do Engadget.

Isso não quer dizer que a Apple não esteja investindo pesadamente em pesquisa e desenvolvimento de IA. Os produtos em exibição durante a palestra de terça-feira estavam repletos de tecnologia. Os recursos de "correção automática de redução" são fortalecidos pelo aprendizado de máquina no dispositivo, assim como o vídeo ao vivo da tela de bloqueio (que o usa para sintetizar quadros intersticiais) e os prompts de escrita personalizados inspiradores do novo aplicativo Journal. Os recursos de preenchimento automático de PDF dependem de sistemas de visão de máquina para entender quais campos vão para onde - o novo teste de miopia do Health Apps também, apenas com a distância da tela do seu filho - enquanto os AirPods agora adaptam suas configurações de reprodução com base em suas preferências e condições ambientais predominantes. Tudo graças aos sistemas de aprendizado de máquina.

É que a Apple não falou sobre isso. Pelo menos, não diretamente.

Mesmo ao discutir os recursos de ponta no novo fone de ouvido Vision Pro - seja o processamento de linguagem natural que entra em suas entradas de voz, rastreamento de raios de áudio, a magia negra da visão de máquina ou o rastreamento de gestos em tempo real e a identificação óptica. — a discussão permaneceu centrada no que os recursos do headset podem fazer pelos usuários. Não o que o fone de ouvido poderia fazer pelo estado da arte ou pela corrida pela superioridade do mercado.

O mais próximo que a Apple chegou durante o evento de descrever abertamente as porcas e parafusos digitais que constituem seus sistemas de aprendizado de máquina foi a descrição do recurso Persona do Vision Pro. Com os aplicativos do dispositivo se voltando fortemente para jogos, entretenimento e comunicação, nunca houve uma chance de passarmos por isso sem ter que fazer chamadas do FaceTime com eles amarrados em nossas cabeças. Como uma chamada do FaceTime em que todos estão escondidos atrás de um fone de ouvido anularia o objetivo de uma videochamada, a Apple está aproveitando um complexo sistema de aprendizado de máquina para recriar digitalmente a cabeça, o tronco, os braços e as mãos do usuário do Vision Pro - também conhecido como " Pessoa."

"Depois de um rápido processo de inscrição usando os sensores frontais no vision pro, o sistema usa um codificador decodificador avançado, rede neural para criar sua persona digital", disse Mike Rockwell, vice-presidente do Grupo de Desenvolvimento de Tecnologia da Apple, durante o evento. "Esta rede foi treinada em um grupo diversificado de milhares de indivíduos, oferece uma representação natural que combina dinamicamente com o movimento facial e das mãos."