1) MÔ TẢ CÔNG VIỆC
Phân tích dữ liệu và báo cáo:
- Hiểu yêu cầu nghiệp vụ từ các đơn vị kinh doanh và xây dựng báo cáo phân tích phù hợp.
- Diễn giải xu hướng, mô hình và kết quả phân tích để hỗ trợ ra quyết định.
- Trình bày dữ liệu trực quan bằng công cụ BI (Power BI, Tableau, Looker...).
Tổ chức, xây dựng và đánh giá dữ liệu:
- Phát triển mô hình dữ liệu, phân loại và chuẩn hóa dữ liệu phục vụ phân tích.
- Đánh giá chất lượng dữ liệu và phối hợp cải thiện độ chính xác, đầy đủ.
Quản lý dữ liệu (Data Lake/Data Warehouse):
- Xây dựng, quản lý và tối ưu giải pháp lưu trữ dữ liệu trên hạ tầng nội bộ và cloud (AWS S3, Redshift, GCP BigQuery…).
- Thiết lập quy trình kiểm tra chất lượng dữ liệu tự động, đảm bảo độ chính xác và sẵn sàng cho AI.
- Theo dõi, tối ưu hiệu suất hệ thống và pipeline dữ liệu, phối hợp với các nhóm nghiệp vụ/Data Scientist để cung cấp dữ liệu sạch, chuẩn và kịp thời.
Phát triển hệ thống AI Agent:
- Thiết kế và triển khai pipeline RAG: từ xử lý, phân đoạn, embedding dữ liệu đến lưu trữ trên vector DB để hỗ trợ AI Agent (trên AWS Bedrock, Google Cloud…).
- Tích hợp, cấu hình vector DB (OpenSearch), tối ưu indexing phục vụ truy xuất thông tin hiệu quả.
2) YÊU CẦU CÔNG VIỆC
Trình độ chuyên môn:
- Tốt nghiệp Đại học trở lên, ưu tiên chuyên ngành CNTT, Khoa học dữ liệu, Khoa học máy tính, Tài chính, Quản trị rủi ro, Thống kê, Toán học ứng dụng hoặc Phân tích định lượng.
- Kiến thức về lập trình, cấu trúc dữ liệu, lý thuyết đồ thị.
- Kiến thức về xác suất thống kê, phân tích khám phá dữ liệu.
Kinh nghiệm thực tế:
- Tối thiểu 3 năm kinh nghiệm làm việc trong các dự án với vai trò là Nhà khoa học dữ liệu, Phân tích dữ liệu hoặc tương đương liên quan dữ liệu tài chính.
- Kinh nghiệm xây dựng AI - Automation
Năng lực chuyên môn:
- Thành thạo các hệ quản trị CSDL on-premise như Oracle, SQL Server, Postgres và ngôn ngữ truy vấn/lập trình (SQL, T-SQL, Python, R, Scala, Java...).
- Có kinh nghiệm xây dựng quy trình ETL, quản lý dữ liệu và phân tích với các công cụ BI (Power BI, Tableau, Qlik, Looker…).
- Am hiểu kiến trúc dữ liệu (Data Lake, DWH, Lakehouse) và có kinh nghiệm thực tế với dịch vụ dữ liệu trên AWS (Glue, S3, Redshift...) và GCP (Composer, Data Fusion, BigQuery…).
- Nắm vững các nguyên tắc bảo mật dữ liệu, đảm bảo tuân thủ trong toàn bộ quá trình xử lý và quản lý dữ liệu.