Tác giả

Reda El Makroum

Sebastian Zwickl-Bernhard

Lukas Kranzl

Ngày đăng tải 01/03/2026
DOI https://doi.org/10.1016/j.rineng.2026.109857
Nguồn bài nghiên cứu Science Direct
Từ khóa

AI tác nhân

Hệ thống quản lý năng lượng tại gia

Mô hình ngôn ngữ lớn

Đáp ứng nhu cầu

Lập lịch phụ tải

1 – GIỚI THIỆU

Quá trình chuyển đổi ngành điện đòi hỏi phải tăng cường đáng kể năng lực đáp ứng nhu cầu (demand response) từ khu vực dân dụng, tuy nhiên việc áp dụng các Hệ thống quản lý năng lượng tại gia (HEMS) vẫn còn hạn chế do các rào cản về tương tác với người dùng. Các mô hình ngôn ngữ lớn (LLM) mang lại tiềm năng to lớn để giải quyết những rào cản này thông qua khả năng tương tác bằng ngôn ngữ tự nhiên; tuy nhiên, các triển khai hiện nay chủ yếu sử dụng LLM như trình tạo quy tắc, trình tối ưu hóa hoặc trình trích xuất tham số hơn là các thực thể điều phối tự chủ cho việc lập lịch đa thiết bị. Nghiên cứu này giới thiệu một hệ thống HEMS AI tác nhân, nơi các LLM tự chủ điều phối việc lập lịch từ các yêu cầu ngôn ngữ tự nhiên của người dùng mà không yêu cầu đặc tả tham số kỹ thuật phức tạp. Theo Cơ quan Năng lượng Quốc tế (IEA), công suất đáp ứng nhu cầu toàn cầu phải đạt 500 GW vào năm 2030, gấp 10 lần so với mức của năm 2020, trong đó các tòa nhà và xe điện dân dụng đóng góp khoảng 60% tiềm năng này. Mặc dù HEMS đã chứng minh được hiệu quả kỹ thuật trong việc giảm chi phí điện năng, nhưng việc áp dụng rộng rãi vẫn bị cản trở bởi yêu cầu người dùng phải dịch các sở thích hàng ngày thành các tham số kỹ thuật chính xác cho các thuật toán tối ưu hóa, một quy trình tốn thời gian và gây nản lòng cho những người dùng không chuyên. Bài nghiên cứu này đề xuất giải quyết rào cản đó thông qua một giao diện đàm thoại trực quan, không chỉ thực hiện lập lịch mà còn có khả năng giải thích các quyết định, xác định sự thiếu hiệu quả trong tiêu thụ và đưa ra các khuyến nghị điều chỉnh hành vi.

2 – MÔ TẢ HỆ THỐNG

Hệ thống được thiết kế dựa trên một kiến trúc AI phân cấp bao gồm một tác nhân điều phối (orchestrator) trung tâm và ba tác nhân chuyên gia (specialist agents), tất cả đều được vận hành bởi cùng một mô hình ngôn ngữ lớn để đảm bảo khả năng phối hợp tự chủ. Tác nhân điều phối đóng vai trò là thực thể điều hành cốt lõi, chịu trách nhiệm phân tích các yêu cầu của người dùng, truy xuất các nguồn dữ liệu chung như giá điện theo thời gian thực từ API của ENTSO-E và các sự kiện lịch từ Google Calendar, sau đó ủy quyền các nhiệm vụ lập lịch cụ thể cho các tác nhân chuyên gia. Ba tác nhân chuyên gia được triển khai bao gồm: tác nhân máy giặt (WM), tác nhân máy rửa bát (DW) và tác nhân sạc xe điện (EV). Tác nhân máy giặt và máy rửa bát thực hiện tối ưu hóa chu kỳ thông qua phân tích cửa sổ trượt trên 96 khoảng thời gian hàng ngày (mỗi khoảng 15 phút) để tìm ra thời điểm có chi phí thấp nhất mà vẫn đáp ứng các ràng buộc về thời hạn của người dùng. Tác nhân sạc xe điện có khả năng nhận thức thời hạn dựa trên lịch trình từ Google Calendar, cho phép hệ thống tự suy luận thời hạn sạc mà không cần người dùng chỉ dẫn rõ ràng. Thiết kế phân cấp này cho phép hệ thống mở rộng quy mô tính toán một cách linh hoạt, trong đó độ phức tạp của hệ thống tăng tuyến tính theo số lượng thiết bị thay vì tăng theo tổ hợp. Toàn bộ hệ thống hoạt động mà không cần các ví dụ trình diễn (zero-shot learning), dựa hoàn toàn vào các mô tả công cụ và hướng dẫn nhiệm vụ trong lời nhắc (prompt) để thực hiện các quyết định lập lịch tối ưu.

3 – PHƯƠNG PHÁP NGHIÊN CỨU

Phương pháp nghiên cứu sử dụng mô hình ReAct (Reason + Act) để điều phối các nhiệm vụ lập lịch thông qua các chu kỳ ra quyết định lặp đi lặp lại giữa lý luận và hành động. Tác nhân điều phối xen kẽ giữa giai đoạn lý luận để phân tích trạng thái hiện tại và giai đoạn hành động để kích hoạt một trong sáu công cụ có sẵn, bao gồm lấy giá điện, truy vấn ràng buộc lịch, tính toán tổng chi phí cửa sổ, gọi tác nhân thiết bị, thực thi lập lịch và kết thúc quy trình. Nghiên cứu tiến hành đánh giá trên ba mô hình ngôn ngữ lớn nguồn mở khác nhau là Llama-3.3-70B, Qwen-3-32B và GPT-OSS-120B, tất cả đều được truy cập thông qua API của Cerebras với tốc độ suy luận lên tới 2500 mã báo (token) mỗi giây. Quá trình đánh giá được thực hiện qua ba chiều: tính tối ưu của việc lập lịch, khả năng điều phối đa thiết bị và xử lý các truy vấn phân tích trực tiếp. Các lịch trình do AI tạo ra được so sánh với các giải pháp tối ưu “đất thực” (ground truth) được tính toán thông qua lập trình tuyến tính nguyên hỗn hợp (MILP) để xác thực hiệu suất. Thử nghiệm bao gồm 75 lần chạy thực nghiệm vào tháng 10 năm 2025, sử dụng tích hợp API thời gian thực cho giá điện và các ràng buộc lịch, với nhiệt độ mô hình được đặt ở mức 0.0 để đảm bảo tính xác định của kết quả. Đối với các truy vấn phân tích, nghiên cứu áp dụng kỹ thuật kỹ thuật lời nhắc (prompt engineering) lũy tiến qua ba giai đoạn: Cơ sở (không hướng dẫn), Hướng dẫn tối thiểu và Quy trình công việc rõ ràng để xác định mức độ chỉ dẫn cần thiết cho mô hình.

4 – KẾT QUẢ NGHIÊN CỨU

Kết quả thực nghiệm cho thấy sự khác biệt đáng kể giữa các mô hình trong khả năng điều phối đa thiết bị mặc dù tất cả đều đạt hiệu suất tối ưu 100% trong kịch bản thiết bị đơn lẻ. Mô hình Llama-3.3-70B thể hiện khả năng vượt trội khi duy trì tỷ lệ thành công 100% trong việc điều phối đồng thời cả ba thiết bị (máy giặt, máy rửa bát và bộ sạc xe điện) theo đúng các mốc thời gian tối ưu chi phí của MILP. Ngược lại, Qwen-3-32B và GPT-OSS-120B gặp thất bại nghiêm trọng trong việc điều phối đa thiết bị; Qwen chỉ đạt tỷ lệ thành công 20% và thường xuyên bỏ qua việc tích hợp xe điện, trong khi GPT-OSS không thể lập lịch cho máy rửa bát hoặc xe điện dù đã truy xuất được các ràng buộc liên quan. Phân tích tiêu thụ tài nguyên cho thấy việc điều phối đa thiết bị làm tăng lượng token tiêu thụ lên gấp 2,5 lần so với thiết bị đơn lẻ, phản ánh các chu kỳ ủy quyền bổ sung cần thiết. Trong kịch bản truy vấn phân tích, không có mô hình nào tự nhận diện được nhu cầu sử dụng công cụ tính toán ở giai đoạn Cơ sở; tuy nhiên, khi được cung cấp Quy trình công việc rõ ràng, cả ba mô hình đều đạt độ chính xác 100%. Thời gian thực thi của Llama-3.3-70B cho một quy trình lập lịch đa thiết bị hoàn chỉnh vẫn duy trì ở mức thực tế là dưới 15 giây, chứng minh rằng AI tác nhân có thể đáp ứng tốt các yêu cầu về trải nghiệm người dùng trong môi trường gia đình. Nghiên cứu cũng chỉ ra rằng hiệu quả sử dụng token có thể được cải thiện tới 40% thông qua các chiến lược kỹ thuật như sử dụng tác nhân chuyên gia đơn lượt và bộ nhớ đệm dữ liệu tham chiếu.

5 – KẾT LUẬN

Bài nghiên cứu đã chứng minh một cách thuyết phục tính khả thi của hệ thống HEMS sử dụng AI tác nhân, nơi các LLM tự chủ quản lý toàn bộ quy trình từ tiếp nhận ngôn ngữ tự nhiên đến thực thi điều khiển thiết bị. Với mô hình Llama-3.3-70B, hệ thống không chỉ mang lại sự linh hoạt trong tương tác mà còn đảm bảo chất lượng giải pháp tối ưu tương đương với các phương pháp toán học truyền thống, giúp loại bỏ các rào cản về kiến thức kỹ thuật chuyên môn cho người dùng. Tuy nhiên, kết quả cũng nhấn mạnh rằng việc lựa chọn mô hình và kỹ thuật thiết kế lời nhắc là những yếu tố then chốt quyết định độ tin cậy của hệ thống, khi mà các mô hình quy mô nhỏ hơn hoặc kém năng lực hơn vẫn gặp khó khăn trong việc suy luận đa bước và điều phối đồng thời nhiều tác vụ. Việc công bố mã nguồn mở cho toàn bộ các thành phần hệ thống sẽ tạo tiền đề cho các nghiên cứu tiếp theo về triển khai thực tế dài hạn và đánh giá tác động bền vững của việc sử dụng LLM trong quản lý năng lượng. Trong tương lai, việc tích hợp các giao thức chuẩn hóa như Model Context Protocol (MCP) và mở rộng sang các loại phụ tải nhiệt như bơm nhiệt hay hệ thống sưởi sẽ là những hướng đi quan trọng để tối ưu hóa hoàn toàn tính linh hoạt phía cầu ở quy mô hộ gia đình. Cuối cùng, hệ thống này không chỉ là một giải pháp kỹ thuật mà còn là một công cụ giúp dân chủ hóa việc tiếp cận các chương trình quản lý năng lượng thông minh, góp phần đẩy nhanh quá trình chuyển đổi năng lượng bền vững và giảm thiểu tác động của biến đổi khí hậu.