100 điều được công bố tại Google I/O 2025

Google I/O

Ngày 20/05/2025, Google đã cho ra mắt rất nhiều cập nhật đổi mới sáng tạo vô cùng ấn tượng, với điểm nhấn là ứng dụng AI trong các sản phẩm của Google mình thấy có tác động mạnh mẽ tới rất rất nhiều ngành nghề. Mình cũng có cơ hôi được trải nghiệm và "wow" với video do Gen AI (AI tạo sinh) tạo ra (bản Veo 3) mình tin rằng sẽ có tác động rất mạnh mẽ tới các ngành công nghiệp sử dụng video, vì nó "thật" quá. SignGemma, MedGemma... chắc chắn sẽ có tác động không nhỏ tới bình đẳng xã hội, sự hoà nhập tối hơn cho người khiếm thính, điều trị y tế. Xin chuyển ngữ và gửi tặng quý độc giả về 100 công bố này tại sự kiện thường niên Google I/O*. 

Bạn đã thử chưa và thích cập nhật nào? Chia sẻ trong phần bình luận nhé? 


Giới thiệu Google I/O

Google I/O là hội nghị thường niên dành cho các lập trình viên được tổ chức bởi Google tại San Francisco, California. Google I/O mang đến những bài thuyết trình chuyên sâu về công nghệ mà trọng tâm là phát triển web, nền tảng di động, và những ứng dụng thương mại được xây dựng bằng các công nghệ web mở từ Google. Các sản phẩm cụ thể được đề cập là Android, Chrome, Chrome OS, Google APIs, Google Web Toolkit, App Engine... Google I/O được bắt đầu vào 2008. Từ "I" và "O" viết tắt của input/output, và "Innovation in the Open". Thể loại của sự kiện này tương tự như Google Developer Day.

Bài viết được xuất bản trên Google Blog vào ngày 21 tháng 5, 2025 bởi tác giả Molly McHugh-Johnson, Cộng tác viên, The Keyword.


Vậy là I/O 2025 đã khép lại! Đây là những gì đã được công bố, ra mắt và trình diễn.

Hôm qua tại Google I/O, Google đã chia sẻ cách họ đang ứng dụng những tiến bộ trong AI vào các sản phẩm của mình. Những nâng cấp lớn sắp tới cho ứng dụng Gemini, các công cụ AI tạo sinh và mọi thứ khác - bao gồm một số tiến bộ thực sự đáng kinh ngạc mà Google đang thực hiện với các mô hình AI (và những cách thức mới để bạn có thể truy cập chúng).

Đây là danh sách những điểm nổi bật của I/O 2025 - rất nhiều trong số đó bạn có thể thử ngay hôm nay!


Hỏi bất cứ điều gì với AI trong Search (Tìm kiếm)

1. Thử ngay bây giờ! AI Mode (Chế độ AI) đang bắt đầu triển khai cho mọi người tại Hoa Kỳ ngay trên Search (Tìm kiếm). Nhưng nếu bạn muốn truy cập ngay lập tức, hãy đăng ký qua Labs.

2. Đối với những câu hỏi mà bạn muốn có phản hồi kỹ lưỡng hơn, chúng tôi đang đưa khả năng nghiên cứu sâu vào Chế độ AI trong Labs, với Deep Search.

3. Khả năng truyền trực tiếp (live) từ Project Astra đang được đưa vào Chế độ AI trong Labs. Với Search Live, ra mắt mùa hè này, bạn có thể trò chuyện qua lại với Search về những gì bạn thấy trong thời gian thực, sử dụng camera của bạn.

4. Google cũng đang đưa khả năng tác nhân từ Project Mariner vào Chế độ AI trong Labs, bắt đầu với vé sự kiện, đặt chỗ nhà hàng và các cuộc hẹn địa phương.

5. Sắp ra mắt: Khi bạn cần thêm trợ giúp để xử lý số liệu hoặc trực quan hóa dữ liệu, Chế độ AI trong Labs sẽ phân tích các bộ dữ liệu phức tạp và tạo đồ họa làm chúng sống động, tất cả được xây dựng tùy chỉnh cho truy vấn của bạn. Chúng tôi sẽ đưa điều này vào các truy vấn thể thao và tài chính.

6. Chúng tôi đang giới thiệu trải nghiệm mua sắm Chế độ AI mới kết hợp khả năng AI tiên tiến với Shopping Graph của chúng tôi để giúp bạn duyệt tìm cảm hứng, suy nghĩ về các cân nhắc và tìm sản phẩm phù hợp với bạn.

7. Thử ngay bây giờ! Bạn có thể thử ảo hàng tỷ danh sách quần áo chỉ bằng cách tải lên một bức ảnh của bản thân. Thử nghiệm "thử đồ" của chúng tôi đang triển khai cho người dùng Search Labs tại Hoa Kỳ bắt đầu từ hôm nay - đăng ký để thử ngay bây giờ.

8. Chúng tôi cũng đã trình diễn tính năng thanh toán tác nhân mới để giúp bạn mua với mức giá phù hợp với ngân sách một cách dễ dàng. Chỉ cần chạm "theo dõi giá" trên bất kỳ danh sách sản phẩm nào, đặt mức bạn muốn chi và chúng tôi sẽ cho bạn biết nếu giá giảm.

9. Chúng tôi đã chia sẻ một số cập nhật về AI Overviews: Kể từ I/O năm ngoái, AI Overviews đã mở rộng lên 1,5 tỷ người dùng hàng tháng tại 200 quốc gia và vùng lãnh thổ. Điều đó có nghĩa là Google Search đang mang AI tạo sinh đến nhiều người hơn bất kỳ sản phẩm nào khác trên thế giới.

10. Tại các thị trường lớn nhất của chúng tôi như Hoa Kỳ và Ấn Độ, AI Overviews đang thúc đẩy việc tăng hơn 10% trong việc sử dụng Google cho các loại truy vấn hiển thị AI Overviews.

11. Và bắt đầu từ tuần này, Gemini 2.5 đang được đưa vào Search cho cả Chế độ AI và AI Overviews tại Hoa Kỳ.

Thử các tính năng mới, hữu ích cho Gemini

12. Thử ngay bây giờ! Giờ đây Gemini là một đối tác học tập tốt hơn với tính năng trắc nghiệm (quiz) tương tác mới của chúng tôi. Chỉ cần yêu cầu Gemini "tạo bài trắc nghiệm thực hành về…" và Gemini sẽ tạo ra các câu hỏi.

13. Trong những tuần tới, chúng tôi cũng sẽ làm cho Gemini Live cá nhân hóa hơn bằng cách kết nối một số ứng dụng Google yêu thích của bạn để bạn có thể thực hiện các hành động giữa cuộc trò chuyện, như thêm thứ gì đó vào lịch của bạn hoặc hỏi thêm chi tiết về một địa điểm. Chúng tôi đang bắt đầu với Google Maps, Calendar, Tasks và Keep, với nhiều kết nối ứng dụng khác sẽ ra mắt sau.

14. Thử ngay bây giờ! Bắt đầu từ hôm nay, khả năng camera và chia sẻ màn hình cho Gemini Live đang bắt đầu triển khai từ Android sang người dùng ứng dụng Gemini trên iOS*.

15. Thử ngay bây giờ! Bắt đầu từ hôm nay, chúng tôi đang giới thiệu menu Tạo mới trong Canvas giúp bạn khám phá phạm vi những gì Canvas có thể xây dựng cho bạn, cho phép bạn chuyển đổi văn bản thành infographic tương tác, trang web, trắc nghiệm nhập vai và thậm chí Audio Overviews theo phong cách podcast bằng 45 ngôn ngữ.

16. Thử ngay bây giờ! Bắt đầu từ hôm nay, bạn có thể tải lên PDF và hình ảnh trực tiếp vào Deep Research để các báo cáo nghiên cứu của bạn rút ra từ sự kết hợp thông tin công khai và chi tiết mà bạn cung cấp.

17. Sớm thôi, bạn sẽ có thể liên kết các tài liệu của mình từ Drive hoặc từ Gmail và tùy chỉnh các nguồn mà Deep Research rút ra, như tài liệu học thuật.

18. Chúng tôi đã công bố Agent Mode, một tính năng thử nghiệm mà bạn sẽ có thể chỉ cần mô tả mục tiêu cuối cùng của mình và Gemini có thể hoàn thành công việc thay mặt bạn. Phiên bản thử nghiệm của Agent Mode trong ứng dụng Gemini sẽ sớm ra mắt cho các thuê bao Google AI Ultra.

19. Thử ngay bây giờ! Gemini trong Chrome sẽ bắt đầu triển khai trên máy tính để bàn cho các thuê bao Google AI Pro và Google AI Ultra tại Hoa Kỳ sử dụng tiếng Anh làm ngôn ngữ Chrome trên Windows và macOS.

20. Ứng dụng Gemini hiện có hơn 400 triệu người dùng hoạt động hàng tháng.

Tìm hiểu thêm về những tiến bộ cho các mô hình Gemini

21. Với bản cập nhật mới nhất của chúng tôi, Gemini 2.5 Pro hiện là mô hình dẫn đầu thế giới trên các bảng xếp hạng WebDev Arena và LMArena.

22. Chúng tôi đang tích hợp LearnLM trực tiếp vào Gemini 2.5, hiện là mô hình dẫn đầu thế giới về học tập. Như được mô tả chi tiết trong báo cáo mới nhất của chúng tôi, Gemini 2.5 Pro đã vượt trội hơn các đối thủ cạnh tranh trong mọi danh mục nguyên lý khoa học học tập.

23. Chúng tôi đã giới thiệu phiên bản xem trước mới của mô hình hàng đầu, Gemini 2.5 Flash, với hiệu suất mạnh hơn trong các tác vụ lập trình và lý luận phức tạp được tối ưu hóa cho tốc độ và hiệu quả.

24. 2.5 Flash hiện có sẵn cho mọi người trong ứng dụng Gemini, và chúng tôi sẽ cung cấp phiên bản cập nhật chính thức trong Google AI Studio cho các nhà phát triển và trong Vertex AI cho doanh nghiệp vào đầu tháng 6, với 2.5 Pro ngay sau đó.

25. 2.5 Pro sẽ trở nên tốt hơn với Deep Think, một chế độ lý luận nâng cao thử nghiệm cho toán học và lập trình cực kỳ phức tạp.

26. Chúng tôi đang mang khả năng mới cho cả 2.5 Pro và 2.5 Flash, bao gồm các biện pháp bảo vệ bảo mật tiên tiến. Phương pháp bảo mật mới của chúng tôi đã giúp tăng đáng kể tỷ lệ bảo vệ của Gemini chống lại các cuộc tấn công tiêm prompt gián tiếp trong quá trình sử dụng công cụ, làm cho Gemini 2.5 trở thành họ mô hình an toàn nhất của chúng tôi đến nay.

27. Chúng tôi đang đưa khả năng sử dụng máy tính của Project Mariner vào Gemini API và Vertex AI. Các công ty như Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company và Cartwheel đang khám phá tiềm năng của nó, và chúng tôi rất hào hứng triển khai rộng rãi hơn cho các nhà phát triển thử nghiệm vào mùa hè này.

28. Cả 2.5 Pro và Flash hiện sẽ bao gồm tóm tắt suy nghĩ (thought summaries) trong Gemini API và trong Vertex AI. Tóm tắt suy nghĩ lấy những suy nghĩ thô của mô hình và tổ chức chúng thành định dạng rõ ràng với tiêu đề, chi tiết chính và thông tin về các hành động của mô hình, như khi chúng sử dụng công cụ.

29. Chúng tôi đã ra mắt 2.5 Flash với ngân sách suy nghĩ để cung cấp cho các nhà phát triển nhiều quyền kiểm soát hơn về chi phí bằng cách cân bằng độ trễ và chất lượng, và chúng tôi đang mở rộng khả năng này cho 2.5 Pro. Điều này cho phép bạn kiểm soát số lượng token mà mô hình sử dụng để suy nghĩ trước khi phản hồi, hoặc thậm chí tắt khả năng suy nghĩ của nó. Gemini 2.5 Pro với ngân sách sẽ có sẵn chính thức cho việc sử dụng sản xuất ổn định trong những tuần tới, cùng với mô hình có sẵn chính thức của chúng tôi.

30. Chúng tôi đã thêm hỗ trợ SDK gốc cho định nghĩa Model Context Protocol (MCP) trong Gemini API để tích hợp dễ dàng hơn với các công cụ mã nguồn mở. Chúng tôi cũng đang khám phá các cách triển khai máy chủ MCP và các công cụ được lưu trữ khác, giúp bạn xây dựng các ứng dụng tác nhân dễ dàng hơn.

31. Chúng tôi đã giới thiệu một mô hình nghiên cứu mới, gọi là Gemini Diffusion. Mô hình khuếch tán văn bản này học cách tạo ra đầu ra bằng cách chuyển đổi tiếng ồn ngẫu nhiên thành văn bản hoặc mã mạch lạc, giống như cách các mô hình hiện tại của chúng tôi trong tạo hình ảnh và video hoạt động. Chúng tôi sẽ tiếp tục công việc của mình về các phương pháp khác nhau để giảm độ trễ trong tất cả các mô hình Gemini của chúng tôi, với 2.5 Flash Lite nhanh hơn sẽ ra mắt sớm.

Truy cập các công cụ AI của chúng tôi với các tùy chọn mới

32. Chúng tôi đã giới thiệu Google AI Ultra, gói đăng ký AI mới với giới hạn sử dụng cao nhất và quyền truy cập vào các mô hình có khả năng nhất và các tính năng cao cấp của chúng tôi, cộng với 30 TB lưu trữ và quyền truy cập YouTube Premium.

33. Google AI Ultra hiện có sẵn tại Hoa Kỳ, với nhiều quốc gia khác sẽ ra mắt sớm. Giá 249,99 USD một tháng, với ưu đãi đặc biệt cho người dùng lần đầu giảm 50% trong ba tháng đầu tiên.

34. Sinh viên đại học tại Hoa Kỳ, Brazil, Indonesia, Nhật Bản và Vương quốc Anh cũng đủ điều kiện để được nâng cấp miễn phí Gemini trong cả năm học - nhiều quốc gia khác sẽ sớm ra mắt.

35. Cũng có Google AI Pro, cung cấp cho bạn một bộ công cụ AI với giá 19,99 USD/tháng. Gói Pro này sẽ nâng cấp trải nghiệm ứng dụng Gemini của bạn. Nó cũng bao gồm các sản phẩm như Flow, NotebookLM và nhiều hơn nữa, tất cả với các tính năng đặc biệt và giới hạn tỷ lệ cao hơn.

Khám phá sự sáng tạo của bạn với AI tạo sinh mới

36. Thử ngay bây giờ! Chúng tôi đã công bố Veo 3, cho phép bạn tạo video với âm thanh và hiện có sẵn trong ứng dụng Gemini cho các thuê bao Google AI Ultra tại Hoa Kỳ, cũng như trong Vertex AI.

37. Chúng tôi cũng đã thêm các khả năng mới vào mô hình Veo 2 phổ biến của chúng tôi, bao gồm điều khiển camera mới, outpainting và thêm và xóa đối tượng.

38. Chúng tôi đã cho bạn xem bốn bộ phim mới được tạo bằng Veo cùng với các công cụ và kỹ thuật khác. Xem những bộ phim này từ các đối tác của chúng tôi và nội dung truyền cảm hứng khác trên Flow TV.

39. Thử ngay bây giờ! Imagen 4 là mô hình Imagen mới nhất của chúng tôi, và nó có độ rõ nét đáng chú ý trong các chi tiết tinh tế như da, lông và kết cấu phức tạp, và xuất sắc trong cả phong cách chân thực và trừu tượng. Imagen 4 có sẵn từ hôm nay 2 trong ứng dụng Gemini.

40. Imagen 4 cũng có sẵn trong Whisk, và cho các doanh nghiệp trong Vertex AI.

41. Sớm thôi, Imagen 4 sẽ có sẵn trong phiên bản Fast nhanh hơn tới 10 lần so với Imagen 3.

42. Imagen 4 có thể tạo hình ảnh trong nhiều tỷ lệ khung hình và độ phân giải lên tới 2K để bạn có thể có chất lượng cao hơn cho in ấn và thuyết trình.

43. Nó cũng tốt hơn đáng kể trong việc đánh vần và kiểu chữ, giúp việc tạo thiệp chúc mừng, áp phích và thậm chí truyện tranh của riêng bạn dễ dàng hơn.

44. Thử ngay bây giờ! Flow là công cụ làm phim AI mới của chúng tôi. Sử dụng các mô hình tốt nhất trong lớp của Google DeepMind, Flow cho phép bạn dệt nên những bộ phim điện ảnh với quyền kiểm soát nhân vật, cảnh và phong cách, để nhiều người hơn bao giờ hết có thể tạo ra những bộ phim ấn tượng về mặt thị giác với AI.

45. Flow có sẵn từ hôm nay cho các thuê bao gói Google AI Pro và Ultra tại Hoa Kỳ.

46. Vào tháng 4, chúng tôi đã mở rộng quyền truy cập vào Music AI Sandbox, được hỗ trợ bởi Lyria 2. Lyria 2 mang đến khả năng sáng tác mạnh mẽ và khám phá vô tận, và hiện có sẵn cho các nhà sáng tạo thông qua YouTube Shorts và các doanh nghiệp trong Vertex AI.

47. Lyria 2 có thể sắp xếp giọng hát phong phú nghe như một ca sĩ solo hoặc một dàn hợp xướng đầy đủ.

48. Lyria RealTime là một mô hình tạo nhạc tương tác cho phép bất kỳ ai tạo, kiểm soát và biểu diễn nhạc tương tác trong thời gian thực. Mô hình này hiện có sẵn qua Gemini API trong Google AI Studio và Vertex AI.

49. Chúng tôi đã công bố quan hệ đối tác giữa Google DeepMind và Primordial Soup, một liên doanh mới dành riêng cho đổi mới kể chuyện được thành lập bởi đạo diễn tiên phong Darren Aronofsky. Primordial Soup đang sản xuất ba phim ngắn sử dụng các mô hình AI tạo sinh, công cụ và khả năng của Google DeepMind, bao gồm Veo.

50. Bộ phim đầu tiên, "ANCESTRA," được đạo diễn bởi nhà làm phim từng đoạt giải thưởng Eliza McNitt và sẽ ra mắt tại Liên hoan phim Tribeca vào ngày 13 tháng 6, 2025.

51. Để giúp mọi người và tổ chức phát hiện nội dung được tạo bởi AI dễ dàng hơn, chúng tôi đã công bố SynthID Detector, một cổng thông tin xác minh giúp nhanh chóng và hiệu quả xác định nội dung được đánh dấu bằng SynthID.

52. Và kể từ khi ra mắt, SynthID đã đánh dấu hơn 10 tỷ phần nội dung.

53. Chúng tôi đang bắt đầu triển khai cổng thông tin SynthID Detector cho một nhóm người thử nghiệm sớm. Các nhà báo, chuyên gia truyền thông và nhà nghiên cứu có thể tham gia danh sách chờ của chúng tôi để có quyền truy cập vào SynthID Detector.

54. Chúng tôi đang làm việc để mở rộng mô hình nền đa phương thức tốt nhất của chúng tôi, Gemini 2.5 Pro, để trở thành một "mô hình thế giới" có thể lập kế hoạch và tưởng tượng ra những trải nghiệm mới bằng cách hiểu và mô phỏng các khía cạnh của thế giới, giống như não bộ làm.

55. Các cập nhật cho Project Astra, nguyên mẫu nghiên cứu của chúng tôi khám phá khả năng của một trợ lý AI toàn cầu, bao gồm đầu ra giọng nói tự nhiên hơn với âm thanh gốc, bộ nhớ được cải thiện và điều khiển máy tính. Theo thời gian, chúng tôi sẽ đưa những khả năng mới này vào Gemini Live và các trải nghiệm mới trong Search, Live API cho các nhà phát triển và các hình thức mới như kính Android XR.

56. Và là một phần của nghiên cứu Project Astra, chúng tôi đã hợp tác với dịch vụ thông dịch thị giác Aira để xây dựng một nguyên mẫu hỗ trợ các thành viên của cộng đồng khiếm thị và thị lực yếu trong các công việc hàng ngày, bổ sung cho các kỹ năng và công cụ mà họ đã sử dụng.

57. Với Project Astra, chúng tôi đang tạo nguyên mẫu một gia sư đối thoại có thể giúp làm bài tập về nhà. Không chỉ có thể theo dõi những gì bạn đang làm, mà nó còn có thể hướng dẫn bạn từng bước qua các vấn đề, xác định lỗi sai và thậm chí tạo sơ đồ để giúp giải thích các khái niệm nếu bạn gặp khó khăn.

58. Trải nghiệm nghiên cứu này sẽ được đưa vào các sản phẩm Google vào cuối năm nay và các Android Trusted Testers có thể đăng ký vào danh sách chờ để xem trước.

59. Chúng tôi đã xem xét thiết bị Android XR đầu tiên sẽ ra mắt vào cuối năm nay: Project Moohan của Samsung. Chiếc tai nghe này sẽ cung cấp trải nghiệm nhập vai trên một màn hình vô hạn.

60. Và chúng tôi đã chia sẻ cái nhìn sơ bộ về cách Gemini sẽ hoạt động trên kính với Android XR trong các tình huống thực tế, bao gồm nhắn tin cho bạn bè, đặt lịch hẹn, hỏi chỉ đường từng bước, chụp ảnh và nhiều hơn nữa.

61. Chúng tôi thậm chí đã trình diễn dịch ngôn ngữ trực tiếp giữa hai người, cho thấy tiềm năng của những chiếc kính này trong việc phá bỏ rào cản ngôn ngữ.

62. Kính nguyên mẫu Android XR hiện đang trong tay của các người thử nghiệm đáng tin cậy, những người đang giúp chúng tôi đảm bảo rằng chúng tôi đang xây dựng một sản phẩm thực sự hỗ trợ và làm điều đó theo cách tôn trọng quyền riêng tư cho bạn và những người xung quanh bạn.

63. Ngoài ra, chúng tôi đang hợp tác với các thương hiệu kính mắt sáng tạo, bắt đầu với Gentle Monster và Warby Parker, để tạo ra kính với Android XR mà bạn sẽ muốn đeo cả ngày.

64. Chúng tôi đang phát triển quan hệ đối tác với Samsung để vượt qua tai nghe và mở rộng Android XR sang kính. Cùng nhau, chúng tôi đang tạo ra một nền tảng phần mềm và phần cứng tham khảo sẽ cho phép hệ sinh thái tạo ra những chiếc kính tuyệt vời. Các nhà phát triển sẽ có thể bắt đầu xây dựng cho nền tảng này vào cuối năm nay.

Giao tiếp tốt hơn, gần như thời gian thực

65. Vài năm trước, chúng tôi đã giới thiệu Project Starline, một dự án nghiên cứu cho phép các cuộc trò chuyện từ xa sử dụng công nghệ video 3D để tạo cảm giác như hai người đang ở trong cùng một phòng. Giờ đây, nó đang phát triển thành một nền tảng mới gọi là Google Beam.

66. Chúng tôi đang làm việc với Zoom và HP để đưa các thiết bị Google Beam đầu tiên ra thị trường với các khách hàng được chọn vào cuối năm nay. Chúng tôi cũng đang hợp tác với các nhà lãnh đạo ngành như Zoom, Diversified và AVI-SPL để đưa Google Beam đến các doanh nghiệp và tổ chức trên toàn thế giới.

67. Bạn thậm chí sẽ thấy các sản phẩm Google Beam đầu tiên từ HP tại InfoComm trong vài tuần tới.

68. Chúng tôi đã công bố dịch tiếng nói, hiện có sẵn trong Google Meet. Tính năng dịch này không chỉ xảy ra gần như thời gian thực, nhờ Google AI, mà còn có thể duy trì chất lượng, giai điệu và sự biểu cảm trong giọng nói của ai đó. Cuộc trò chuyện tự nhiên cho phép mọi người hiểu nhau và cảm thấy kết nối, không có rào cản ngôn ngữ.

Xây dựng tốt hơn với các ra mắt dành cho nhà phát triển

69. Hơn 7 triệu lập trình viên đang xây dựng với Gemini, nhiều gấp năm lần so với cùng thời điểm năm ngoái.

70. Việc sử dụng Gemini trên Vertex AI tăng gấp 40 lần so với cùng thời điểm năm ngoái.

71. Chúng tôi đang phát hành các bản xem trước mới cho chuyển văn bản thành giọng nói trong 2.5 Pro và 2.5 Flash. Những bản này có hỗ trợ đầu tiên cho nhiều người nói, cho phép chuyển văn bản thành giọng nói với hai giọng qua đầu ra âm thanh gốc. Giống như hội thoại Native Audio, chuyển văn bản thành giọng nói rất biểu cảm và có thể nắm bắt những sắc thái thực sự tinh tế, chẳng hạn như tiếng thì thầm. Nó hoạt động trong hơn 24 ngôn ngữ và chuyển đổi liền mạch giữa chúng.

72. Live API đang giới thiệu phiên bản xem trước của đầu vào âm thanh-hình ảnh và hội thoại đầu ra âm thanh gốc, để bạn có thể trực tiếp xây dựng các trải nghiệm đối thoại.

73. Thử ngay bây giờ! Jules là một tác nhân song song, không đồng bộ cho các kho lưu trữ GitHub của bạn để giúp bạn cải thiện và hiểu codebase của mình. Nó hiện đang mở cho tất cả các nhà phát triển trong bản beta. Với Jules, bạn có thể ủy thác nhiều mục backlog và tác vụ lập trình cùng lúc, và thậm chí nhận được tổng quan âm thanh về tất cả các cập nhật gần đây cho codebase của bạn.

74. Gemma 3n là mô hình đa phương thức mở nhanh và hiệu quả mới nhất của chúng tôi được thiết kế để chạy mượt mà trên điện thoại, laptop và máy tính bảng của bạn. Nó xử lý âm thanh, văn bản, hình ảnh và video. Việc triển khai ban đầu đang diễn ra trên Google AI Studio và Google Cloud với kế hoạch mở rộng sang các công cụ mã nguồn mở trong những tuần tới.

75. Thử ngay bây giờ! Google AI Studio hiện có giao diện người dùng sạch hơn, tài liệu tích hợp, bảng điều khiển sử dụng, ứng dụng mới và tab Generate Media mới để khám phá và thử nghiệm với các mô hình tạo sinh tiến tiến của chúng tôi, bao gồm Imagen, Veo và tạo hình ảnh gốc.

76. Colab sẽ sớm trở thành một trải nghiệm hoàn toàn tự động mới. Chỉ cần nói cho Colab biết bạn muốn đạt được điều gì, và theo dõi khi nó thực hiện các hành động trong notebook của bạn, sửa lỗi và chuyển đổi mã để giúp bạn giải quyết các vấn đề khó khăn nhanh hơn.

77. SignGemma là một mô hình mở sắp ra mắt có thể dịch ngôn ngữ ký hiệu thành văn bản ngôn ngữ nói (tốt nhất với ngôn ngữ ký hiệu Mỹ sang tiếng Anh), cho phép các nhà phát triển tạo ra các ứng dụng và tích hợp mới cho người Khiếm thính và Khó nghe.

78. MedGemma là mô hình mở có khả năng tốt nhất của chúng tôi cho việc hiểu văn bản và hình ảnh y tế đa phương thức, được thiết kế để các nhà phát triển có thể thích ứng và xây dựng các ứng dụng sức khỏe của họ, như phân tích hình ảnh y tế. MedGemma hiện đã có sẵn để sử dụng như một phần của Health AI Developer Foundations.

79. Stitch là một công cụ mới được hỗ trợ bởi AI để tạo ra các thiết kế giao diện người dùng chất lượng cao và mã frontend tương ứng cho máy tính để bàn và di động bằng cách sử dụng mô tả ngôn ngữ tự nhiên hoặc gợi ý hình ảnh.

80. Hãy thử ngay! Chúng tôi đã công bố Journeys trong Android Studio, cho phép các nhà phát triển kiểm tra các hành trình người dùng quan trọng bằng cách sử dụng Gemini thông qua việc mô tả các bước kiểm tra bằng ngôn ngữ tự nhiên.

81. Version Upgrade Agent trong Android Studio sẽ sớm ra mắt để tự động cập nhật các phụ thuộc lên phiên bản tương thích mới nhất, phân tích qua các ghi chú phát hành, xây dựng dự án và sửa mọi lỗi.

82. Chúng tôi đã giới thiệu các cập nhật mới trên Google Pay API được thiết kế để giúp các nhà phát triển tạo ra trải nghiệm thanh toán mượt mà hơn, an toàn hơn và thành công hơn, bao gồm Google Pay trong Android WebViews.

83. Flutter 3.32 có các tính năng mới được thiết kế để đẩy nhanh quá trình phát triển và cải thiện ứng dụng.

84. Và chúng tôi đã chia sẻ các cập nhật cho Agent Development Kit (ADK), Vertex AI Agent Engine, và giao thức Agent2Agent (A2A), cho phép tương tác giữa nhiều agent.

85. Hãy thử ngay! Developer Preview cho Wear OS 6 giới thiệu Material 3 Expressive và các công cụ phát triển cập nhật cho Watch Faces, điều khiển phương tiện phong phú hơn và Credential Manager cho xác thực.

86. Hãy thử ngay! Chúng tôi đã thông báo rằng Gemini Code Assist cho cá nhân và Gemini Code Assist cho GitHub đã có sẵn chính thức, và các nhà phát triển có thể bắt đầu trong vòng chưa đầy một phút. Gemini 2.5 hiện cung cấp sức mạnh cho cả phiên bản miễn phí và trả phí của Gemini Code Assist, có hiệu suất lập trình tiên tiến; và giúp các nhà phát triển xuất sắc trong các tác vụ như tạo ra ứng dụng web hấp dẫn về mặt thị giác, cùng với chuyển đổi và chỉnh sửa mã.

87. Đây là một ví dụ về cập nhật gần đây mà bạn có thể khám phá trong Gemini Code Assist: Nhanh chóng tiếp tục từ nơi bạn đã dừng lại và chuyển sang hướng mới với lịch sử trò chuyện và các chủ đề.

88. Firebase đã công bố các tính năng và công cụ mới để giúp các nhà phát triển xây dựng ứng dụng được hỗ trợ bởi AI dễ dàng hơn, bao gồm các cập nhật cho Firebase Studio mới ra mắt và Firebase AI Logic, cho phép các nhà phát triển tích hợp AI vào ứng dụng của họ nhanh hơn.

89. Chúng tôi cũng giới thiệu một cộng đồng lập trình Google Cloud và NVIDIA mới, một diễn đàn chuyên dụng để kết nối với các chuyên gia từ cả hai công ty.

90. Chúng tôi đã giới thiệu Google AI Edge Portal trong bản xem trước riêng tư, một giải pháp mới từ Google Cloud để kiểm tra và đánh giá hiệu năng máy học (ML) trên thiết bị ở quy mô lớn.

Làm việc thông minh hơn với các cải tiến AI

91. Gmail sẽ có các phản hồi thông minh mới được cá nhân hóa, kết hợp bối cảnh và giọng điệu riêng của bạn. Chúng sẽ lấy từ các email trước đây và tệp trong Drive của bạn để soạn thảo phản hồi, đồng thời khớp với giọng điệu thông thường của bạn để phản hồi nghe giống như chính bạn. Hãy tự thử vào cuối năm nay.

92. Hãy thử ngay! Google Vids hiện đã có sẵn cho người dùng Google AI Pro và Ultra.

93. Hãy thử ngay! Bắt đầu từ hôm nay, chúng tôi đang cung cấp ứng dụng NotebookLM trên Play Store và App Store, để giúp người dùng sử dụng Audio Overviews khi di chuyển.

94. Cũng cho NotebookLM, chúng tôi đang mang đến sự linh hoạt hơn cho Audio Overviews, cho phép bạn chọn độ dài lý tưởng cho bản tóm tắt của mình, dù bạn thích tổng quan nhanh hay khám phá sâu hơn.

95. Video Overviews sẽ sớm có mặt trên NotebookLM, giúp bạn chuyển đổi thông tin dày đặc như PDF, tài liệu, hình ảnh, sơ đồ và trích dẫn chính thành các tổng quan được kể lại dễ hiểu hơn.

96. Chúng tôi thậm chí đã chia sẻ một trong những notebook NotebookLM của chúng tôi với bạn - bao gồm một vài bản xem trước của Video Overviews!

97. Thí nghiệm Labs mới của chúng tôi, Sparkify, giúp bạn chuyển các câu hỏi thành video hoạt hình ngắn, được thực hiện nhờ các mô hình Gemini và Veo mới nhất. Những khả năng này sẽ được đưa vào các sản phẩm Google vào cuối năm nay, nhưng trong thời gian chờ đợi, bạn có thể đăng ký danh sách chờ để có cơ hội thử nghiệm.

98. Chúng tôi cũng đang mang đến các cải tiến dựa trên phản hồi của bạn cho Learn About, một thí nghiệm trong Labs nơi AI đối thoại gặp gỡ sự tò mò của bạn.

Cuối cùng... chúng tôi sẽ để lại một vài con số:

99. Như Sundar đã chia sẻ trong bài phát biểu chính khai mạc, mọi người đang chấp nhận AI nhiều hơn bao giờ hết. Ví dụ: Cùng thời điểm năm ngoái, chúng tôi đang xử lý 9,7 nghìn tỷ token mỗi tháng trên các sản phẩm và API của chúng tôi. Bây giờ, chúng tôi đang xử lý hơn 480 nghìn tỷ - nhiều gấp 50 lần.

100. Với điều đó, không có gì lạ khi từ "AI" được nói 92 lần trong suốt bài phát biểu chính. Nhưng số lượng "AI" chúng tôi nghe thực tế đứng thứ hai - sau Gemini!


Nguồn tham khảo: 

Nhận xét

Bình luận. Vui lòng không spam, không quảng cáo, không công kích cá nhân. Hãy sử dụng từ ngữ phù hợp và đóng góp tích cực!

Archive

Biểu mẫu liên hệ

Gửi