OpenAI'dan yapılan açıklamada, GPT-4o'nun daha doğal insan-bilgisayar etkileşimine doğru atılmış bir adım olduğu belirtilerek, modelin herhangi bir metin, ses ve görüntü kombinasyonundan oluşan girdilerden çıktı ürettiği aktarıldı.
Modelin ses girişlerine verdiği yanıt süresinin, herhangi bir konuşmadaki insan tepki süresine benzer olduğuna işaret edilen açıklamada GPT-4o'nun, mevcut modellerle karşılaştırıldığında özellikle görüntü ve ses anlama konusunda daha iyi olduğu vurgulandı.
GPT-4o ile metin, görüntü ve ses genelinde uçtan uca tek bir yeni modelin eğitildiğinin bilgisi verilerek yeni modelin, tüm girdi ve çıktıların aynı sinir ağı tarafından işlendiği ilk model olduğu ifade edildi.
Öte yandan OpenAI'nın düzenlediği tanıtım etkinliğinde, modelin önceki modellere göre daha uygun maliyetli olması nedeniyle ücretsiz olarak da sunulacağı, ücretli GPT-4o kullanıcılarının daha fazla kapasiteye sahip olacağı kaydedildi. Yeni modelin birkaç hafta içinde ChatGPT'de sunulacağı belirtildi.