従来の機械翻訳システムでは、訓練データにおいて統計的に優位なジェンダー(社会的性差)の形態が適用されることが多い。そのため、例えば「秘書」と「上司」という二つの言葉を含む文の場合に、文脈の情報がなければ根拠なく性別が割り当てられるというように、誤った解釈や、社会的な固定観念の強化につながる翻訳を出力する可能性がある。これに対処するために、Apple社と南カリフォルニア大学の研究者は、原文におけるジェンダーの曖昧さを特定し、曖昧な実体に対してすべてのジェンダーの組み合わせを考慮した複数の訳文の選択肢を提示ssする方法を開発した。