如何修復使用Python ORM工具SQLAlchemy時的常見陷阱
在使用 SQLAlchemy 時,那些看似很小的選擇可能對這種對象關系映射工具包的性能產生重要影響。
對象關系映射(ORM)使應用程序開發人員的工作更輕松,在很大程度是因為它允許你使用你可能知道的語言(例如 Python)與數據庫交互,而不是使用原始 SQL 語句查詢。SQLAlchemy 是一個 Python ORM 工具包,它提供使用 Python 訪問 SQL 數據庫的功能。它是一個成熟的 ORM 工具,增加了模型關系、強大的查詢構造范式、簡單的序列化等優點。然而,它的易用性使得人們很容易忘記其背后發生了什么。使用 SQLAlchemy 時做出的看似很小的選擇可能產生非常大的性能影響。
本文解釋了開發人員在使用 SQLAlchemy 時遇到的一些最重要的性能問題,以及如何解決這些問題。
只需要計數但檢索整個結果集
有時開發人員只需要一個結果計數,但是沒有使用數據庫計數功能,而是獲取了所有結果,然后使用 Python 中的 len
完成計數。
count = len(User.query.filter_by(acct_active=True).all())
相反,使用 SQLAlchemy 的 count
方法將在服務器端執行計數,從而減少發送到客戶端的數據。在前面的例子中調用 all()
也會導致模型對象的實例化,如果有很多數據,那么時間代價可能會非常昂貴。
除非還需要做其他的事情,否則只需使用 count
方法:
count = User.query.filter_by(acct_active=True).count()
只需要幾列時檢索整個模型
在許多情況下,發出查詢時只需要幾列數據。SQLAlchemy 可以只獲取你想要的列,而不是返回整個模型實例。這不僅減少了發送的數據量,還避免了實例化整個對象。使用列數據的元組而不是模型可以快得多。
result = User.query.all()
for user in result:
print(user.name, user.email)
反之,使用 with_entities
方法只選擇所需要的內容:
result = User.query.with_entities(User.name, User.email).all()
for (username, email) in result:
print(username, email)
每次循環都更新一個對象
避免使用循環來單獨更新集合。雖然數據庫可以非常快地執行單個更新,但應用程序和數據庫服務器之間的往返時間將快速累加。通常,在合理的情況下爭取更少的查詢。
for user in users_to_update:
user.acct_active = True
db.session.add(user)
改用批量更新方法:
query = User.query.filter(user.id.in_([user.id for user in users_to_update]))
query.update({"acct_active": True}, synchronize_session=False)
觸發級聯刪除
ORM 允許在模型關系上進行簡單的配置,但是有一些微妙的行為可能會令人吃驚。大多數數據庫通過外鍵和各種級聯選項維護關系完整性。SQLAlchemy 允許你使用外鍵和級聯選項定義模型,但是 ORM 具有自己的級聯邏輯,可以取代數據庫。
考慮以下模型:
class Artist(Base):
__tablename__ = "artist"
id = Column(Integer, primary_key=True)
songs = relationship("Song", cascade="all, delete")
class Song(Base):
__tablename__ = "song"
id = Column(Integer, primary_key=True)
artist_id = Column(Integer, ForeignKey("artist.id", ondelete="CASCADE"))
刪除歌手將導致 ORM 在 song
表上發出 delete
查詢,從而防止由于外鍵導致的刪除操作。這種行為可能會成為復雜關系和大量記錄的瓶頸。
請包含 passive_deletes
選項,以確保讓數據庫來管理關系。但是,請確保你的數據庫具有此功能。例如,SQLite 默認情況下不管理外鍵。
songs = relationship("Song", cascade all, delete", passive_deletes=True)
當要使用貪婪加載時,應使用延遲加載
延遲加載是 SQLAlchemy 處理關系的默認方法。從上一個例子構建來看,加載一個歌手時不會同時加載他或她的歌曲。這通常是一個好主意,但是如果總是需要加載某些關系,單獨的查詢可能會造成浪費。
如果允許以延遲方式加載關系,像 Marshmallow 這樣流行的序列化框架可以觸發級聯查詢。
有幾種方法可以控制此行為。最簡單的方法是通過 relationship 函數本身。
songs = relationship("Song", lazy="joined", cascade="all, delete")
這將導致一個左連接被添加到任何歌手的查詢中,因此,songs
集合將立即可用。盡管有更多數據返回給客戶端,但往返次數可能會少得多。
SQLAlchemy 為無法采用這種綜合方法的情況提供了更細粒度的控制,可以使用 joinedload()
函數在每個查詢的基礎上切換連接的加載。
from sqlalchemy.orm import joinedload
artists = Artist.query.options(joinedload(Artist.songs))
print(artists.songs) # Does not incur a roundtrip to load
使用 ORM 進行批量記錄導入
導入成千上萬條記錄時,構建完整模型實例的開銷會成為主要瓶頸。想象一下,從一個文件中加載數千首歌曲記錄,其中每首歌曲都先被轉換為字典。
for song in songs:
db.session.add(Song(`song))
相反,繞過 ORM,只使用核心的 SQLAlchemy 參數綁定功能。
batch = []
insert_stmt = Song.__table__.insert()
for song in songs:
if len(batch) > 1000:
db.session.execute(insert_stmt, batch)
batch.clear()
batch.append(song)
if batch:
db.session.execute(insert_stmt, batch)
請記住,此方法會自然而然地跳過你可能依賴的任何客戶端 ORM 邏輯,例如基于 Python 的列默認值。盡管此方法比將對象加載為完整的模型實例要快,但是你的數據庫可能具有更快的批量加載方法。例如,PostgreSQL 的 COPY
命令為加載大量記錄提供了最佳性能。
過早調用提交或刷新
在很多情況下,你需要將子記錄與其父記錄相關聯,反之亦然。一種顯然的方法是刷新會話,以便為有問題的記錄分配一個 ID。
artist = Artist(name="Bob Dylan")
song = Song(title="Mr. Tambourine Man")
db.session.add(artist)
db.session.flush()
song.artist_id = artist.id
對于每個請求,多次提交或刷新通常是不必要的,也是不可取的。數據庫刷新涉及強制在數據庫服務器上進行磁盤寫入,在大多數情況下,客戶端將阻塞,直到服務器確認已寫入數據為止。
SQLAlchemy 可以在幕后跟蹤關系和管理相關鍵。
artist = Artist(name="Bob Dylan")
song = Song(title="Mr. Tambourine Man")
artist.songs.append(song)
總結
我希望這一系列常見的陷阱可以幫助你避免這些問題,并使你的應用平穩運行。通常,在診斷性能問題時,測量是關鍵。大多數數據庫都提供性能診斷功能,可以幫助你定位問題,例如 PostgreSQL 的 pg_stat_statements
模塊。