BERT مخفف Bidirectional Encoder Representations from Transformers است. این یک مدل پردازش زبان طبیعی (NLP) است که به گوگل کمک می‌کند تا معنای واقعی کلمات و عبارات را در یک جمله بهتر درک کند.

BERT باعث شده است که نتایج جستجو دقیق‌تر و مرتبط‌تر با جستجوی کاربران شوند. به ویژه در جستجوهای پیچیده و محاوره‌ای، BERT نقش بسیار مهمی ایفا می‌کند.