[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2021059487A1 - 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム - Google Patents

情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム Download PDF

Info

Publication number
WO2021059487A1
WO2021059487A1 PCT/JP2019/038163 JP2019038163W WO2021059487A1 WO 2021059487 A1 WO2021059487 A1 WO 2021059487A1 JP 2019038163 W JP2019038163 W JP 2019038163W WO 2021059487 A1 WO2021059487 A1 WO 2021059487A1
Authority
WO
WIPO (PCT)
Prior art keywords
observation
information processing
container
unit
control unit
Prior art date
Application number
PCT/JP2019/038163
Other languages
English (en)
French (fr)
Inventor
桃太郎 石川
俊秀 唯木
雄之 阿部
耕磨 林
恭子 根岸
良子 仙洞田
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to CN201980100801.6A priority Critical patent/CN114450707A/zh
Priority to US17/763,831 priority patent/US20240290004A1/en
Priority to JP2021548121A priority patent/JP7380695B2/ja
Priority to EP19946930.5A priority patent/EP4036839A4/en
Priority to PCT/JP2019/038163 priority patent/WO2021059487A1/ja
Publication of WO2021059487A1 publication Critical patent/WO2021059487A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/26Stages; Adjusting means therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/30Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration
    • C12M41/36Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration of biomass, e.g. colony counters or by turbidity measurements
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/48Automatic or computerized control
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/24Base structure
    • G02B21/30Base structure with heating device
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/34Microscope slides, e.g. mounting specimens on microscope slides

Definitions

  • the present invention relates to an information processing device, an information processing method, an information processing program, and an information processing system.
  • Patent Document 1 discloses a technique for calculating cell density from the area of a colony and the number of cells contained in the colony for which the area of the colony has been calculated, based on an image of the colony of the cell. .. For example, since the amount of analysis results using such a technique becomes enormous due to daily analysis, a technique that allows the user to easily visually recognize the analysis results is required.
  • the present invention relates to a container having an acquisition unit for acquiring an observation result obtained by imaging a plurality of objects under predetermined observation conditions and a plurality of storage units for accommodating the plurality of objects.
  • An information processing device including a display control unit that clearly indicates a storage unit of a container belonging to a group corresponding to a classification criterion selected by a user for a display image is provided.
  • the observation result obtained by imaging a plurality of objects under predetermined observation conditions is acquired, and the display relating to the container having a plurality of accommodating portions in which the plurality of objects are each accommodating.
  • Information processing methods include, for the image, a container that belongs to a group that corresponds to the classification criteria selected by the user.
  • the computer has a plurality of accommodating portions for acquiring the observation results obtained by imaging a plurality of objects under predetermined observation conditions and accommodating the plurality of objects.
  • An information processing program is provided for clearly indicating the container of the container belonging to the group corresponding to the classification standard selected by the user for the display image of the container, and executing the display image.
  • an information processing system that outputs a display image to a user terminal by cloud computing, and includes a server, which is obtained by imaging a plurality of objects under predetermined observation conditions.
  • An information processing system including an image generation unit that clearly indicates a storage unit and an output unit that outputs a display image generated by the image generation unit to a user terminal via a network is provided.
  • an information processing apparatus including a registration unit for registering two or more accommodating units as the same group based on the obtained classification criteria and observation results is provided.
  • an observation result obtained by imaging a plurality of objects housed in a container having a plurality of storage parts under predetermined observation conditions and to obtain the observation result from the observation condition or the observation result.
  • An information processing method including registering two or more storage units as the same group based on the classification criteria to be obtained and the observation result is provided.
  • a computer is used to obtain an observation result obtained by imaging a plurality of objects housed in a container having a plurality of storage parts under predetermined observation conditions, and the observation condition or observation.
  • An information processing program for registering two or more storage units as the same group based on the classification criteria obtained from the results and the observation results is provided.
  • an information processing system that executes processing by cloud computing, and includes a server, and the server observes a plurality of objects housed in a container having a plurality of storage units under predetermined observation conditions.
  • An acquisition unit that acquires the observation results obtained by imaging in the above, and a registration unit that registers two or more accommodating units as the same group based on the observation conditions or the classification criteria obtained from the observation results and the observation results.
  • An information processing system comprising , is provided.
  • the figure which shows the screen example in the group registration which concerns on 1st Embodiment The figure which shows the screen example in the group registration which concerns on 1st Embodiment.
  • the figure which shows the screen example in the group registration which concerns on 1st Embodiment The figure which shows the screen example in the group registration which concerns on 1st Embodiment.
  • the figure which shows the screen example in the group registration which concerns on 1st Embodiment The figure which shows the screen example in the group registration which concerns on 1st Embodiment.
  • the figure which shows the screen example in the group registration which concerns on 1st Embodiment The figure which shows the screen example in the group registration which concerns on 1st Embodiment.
  • the figure which shows the screen example in the group registration which concerns on 1st Embodiment The figure which shows the screen example in the group registration which concerns on 1st Embodiment.
  • FIG. 1 is a diagram showing an overall configuration example of an analysis system including the information processing apparatus according to the first embodiment.
  • the analysis system 1000 includes a culture system BS, an information processing device 100, and a storage device 110.
  • the culture system BS includes a culture device 8 and an observation device 5.
  • the analysis system 1000 is a system for culturing an object (for example, a cell, a sample, a specimen, etc.), observing (imaging) the process of culturing, and analyzing the observation result (eg, captured image).
  • the culture system BS, the information processing device 100, and the storage device 110 are connected via networks such as the Internet, LAN (Local Area Network), and WAN (Wide Area Network). Further, the culture system BS, the information processing device 100, and the storage device 110 may be connected via a network combining the Internet, LAN, WAN, and the like. Such a network is not limited to a network by wired communication, and may include a network by wireless communication. Further, the information processing device 100 may be configured to include the storage device 110. Further, the culture system BS and the storage device 110 may be connected via a network.
  • FIG. 2 is a diagram showing a configuration example of a culture system connected to the information processing apparatus according to the first embodiment.
  • FIG. 3 is a block diagram showing a configuration example of a culture system connected to the information processing apparatus according to the first embodiment.
  • FIG. 4 is a diagram illustrating an example of the connection relationship around the control unit of the culture system connected to the information processing apparatus according to the first embodiment.
  • the culture system BS is roughly divided into a culture chamber 2 provided in the upper part of the housing 1, a stocker 3 for accommodating and holding a plurality of culture containers 10, and an observation for observing (imaging) an object in the culture container 10. It has a device 5 and a transport unit (transport device) 4 for transporting the culture container 10.
  • the culture system BS has a control unit (control device) 6 for controlling the operation of the system, and an operation panel 7 including a display device.
  • the culture chamber 2, the stocker 3, the transfer unit 4, and the like correspond to the culture device 8.
  • the culture chamber 2 is a chamber that forms a culture environment for observation objects such as cells in microscopic observation.
  • the culture chamber 2 is provided with a temperature control device 21, a humidifier 22, a gas supply device 23, a circulation fan 24, and an environmental sensor 25.
  • the temperature adjusting device 21 cooperates with the environment sensor 25 to adjust the temperature in the culture chamber 2 to a predetermined set temperature.
  • the humidifier 22 cooperates with the environment sensor 25 to adjust the humidity in the culture chamber 2 to a predetermined set humidity.
  • the gas supply device 23 cooperates with the environment sensor 25 to supply CO 2 gas, N 2 gas, O 2 gas, and the like.
  • the circulation fan 24 is a fan that circulates gas (air) in the culture chamber 2 and adjusts the temperature in cooperation with the environment sensor 25.
  • the environment sensor 25 detects the temperature, humidity, carbon dioxide concentration, nitrogen concentration, oxygen concentration, etc. of the culture chamber 2.
  • the stocker 3 is formed in a shelf shape divided into front and back and upper and lower. For example, a unique address is set for each shelf.
  • the culture container 10 is appropriately selected according to the type and purpose of the object to be cultured.
  • the culture container 10 may be, for example, a well plate, a flask, or a dish type culture container. In this embodiment, a case where a well plate is used will be given as an example.
  • the object is injected into the culture vessel 10 together with the liquid medium (culture solution) and held. For example, a code number is assigned to each of the culture vessels 10.
  • the culture container 10 is housed in association with the designated address of the stocker 3 according to the assigned code number.
  • the transfer unit 4 has a Z stage 41 that can move up and down, a Y stage 42 that can move back and forth, and an X stage 43 that can move left and right, which are provided inside the culture chamber 2.
  • the support arm 45 lifts and supports the culture vessel 10 on the tip end side of the X stage 43.
  • the observation device 5 includes a first lighting unit 51, a second lighting unit 52, a third lighting unit 53, a macro observation system 54, a microscopic observation system 55, and a control unit 6.
  • the first illumination unit 51 illuminates the object from below the sample table 15.
  • the second illumination unit 52 illuminates the object from above the sample table 15 along the optical axis of the microscopic observation system 55.
  • the third illumination unit 53 illuminates the object from below the sample table 15 along the optical axis of the microscopic observation system 55.
  • the macro observation system 54 carries out macro observation of the object.
  • the microscopic observation system 55 carries out microscopic observation of the object.
  • the sample table 15 is provided with a transparent window portion 16 such as glass in the observation region of the microscopic observation system 55.
  • the macro observation system 54 includes an observation optical system 54a and an image pickup device 54c such as a CCD camera that captures an image of an object imaged by the observation optical system 54a.
  • the macro observation system 54 acquires an overall observation image from above of the culture vessel 10 backlit by the first illumination unit 51.
  • the microscopic observation system 55 includes an observation optical system 55a including an objective lens, an intermediate magnification lens, a fluorescence filter, and an imaging device 55c such as a cooled CCD camera that captures an image of an object imaged by the observation optical system 55a. And have.
  • a plurality of objective lenses and intermediate variable magnification lenses may be provided.
  • the objective lens and the intermediate magnification lens can be set to an arbitrary observation magnification by changing the combination of lenses.
  • the microscopic observation system 55 includes a transmission image of the object illuminated by the second illumination unit 52, a reflection image of the object illuminated by the third illumination unit 53, and a fluorescence image of the object illuminated by the third illumination unit 53. To get. That is, the microscopic observation system 55 acquires a microscopic observation image obtained by microscopically observing the object in the culture vessel 10.
  • the control unit 6 processes the signals input from the image pickup device 54c of the macro observation system 54 and the image pickup device 55c of the microscopic observation system 55 to generate an image such as an overall observation image and a microscopic observation image. Further, the control unit 6 performs image analysis on the whole observation image and the microscopic observation image to generate a time-lapse image. The control unit 6 outputs the generated image to the information processing device 100 and stores it in the storage device 110.
  • the control unit 6 has a CPU (Central Processing Unit) (processor) 61, a ROM (Read Only Memory) 62, and a RAM (Random Access Memory) 63.
  • the CPU 61 controls the control unit 6 and executes various processes in the control unit 6.
  • the ROM 62 stores a control program related to the culture system BS, control data, and the like.
  • the RAM 63 includes an auxiliary storage device such as a hard disk or a DVD (Digital Versatile Disc), and temporarily stores observation conditions, image data, and the like.
  • Each component device such as the culture chamber 2, the transfer unit 4, the observation device 5, and the operation panel 7 is connected to the control unit 6 (see FIG. 3).
  • the RAM 63 stores, for example, the environmental conditions of the culture chamber 2 according to the observation program, the observation schedule, the observation type in the observation device 5, the observation position, the observation magnification, and the like. Further, the RAM 63 includes a storage area for storing the image data photographed by the observation device 5, and stores the image data in association with the index data including the code number of the culture vessel 10, the imaging date and time, and the like.
  • the operation panel 7 has an operation panel (operation unit, input unit) 71 and a display panel 72.
  • the operation panel 71 includes input / output devices (operation unit, input unit) such as a keyboard, a mouse, and a switch. The user operates the operation panel 71 to input observation program settings, condition selection, operation commands, and the like.
  • the communication unit 65 is configured in accordance with a wired or wireless communication standard, and is connected to an observation device 5, a culture system BS, or an external device (eg, a server, a user's client terminal, etc.) connected to the control unit 6. Send and receive data between.
  • Various types of information stored in the RAM 63 can be appropriately stored in the storage device 110 via the information processing device 100.
  • FIG. 5 is a block diagram showing a functional configuration example of the information processing device according to the first embodiment.
  • the information processing apparatus 100 includes a communication unit 131, an acquisition unit 132, a display control unit 133, a calculation unit 134, and a registration unit 135. Further, the information processing device 100 is connected to the input unit 121 and the display unit 122.
  • the input unit 121 receives various operations by the user of the information processing device 100 and outputs a control signal according to the user operation.
  • the input unit 121 is composed of, for example, a mouse, a keyboard, and the like.
  • the display unit 122 displays and outputs various information (information including an image) according to a user operation on the input unit 121.
  • the display unit 122 is composed of, for example, a display or the like.
  • the input unit 121 and the display unit 122 may be integrally configured. That is, even if the input unit 121 and the display unit 122 are configured by a portable terminal (eg, a tablet terminal) or the like having a touch panel that directly performs an input operation on various information displayed on the display unit 122. Good.
  • the communication unit 131 communicates with the culture system BS and the storage device 110 via the network to transmit and receive various information.
  • the communication unit 131 receives information on observation conditions and observation results from the culture system BS, for example, via a network. Further, the communication unit 131 transmits / receives information on observation conditions and observation results to / from the storage device 110 via a network, for example.
  • the acquisition unit 132 acquires the observation results obtained by imaging a plurality of objects housed in a container having a plurality of storage units under predetermined observation conditions. For example, the acquisition unit 132 appropriately acquires information on various observation results in the culture system BS stored in the storage device 110 from the storage device 110 via the network or the communication unit 131. Further, the acquisition unit 132 can appropriately acquire not only the information regarding the observation result but also the information regarding the observation condition from the storage device 110.
  • FIG. 6 is a diagram showing an example of information stored in the storage device according to the first embodiment.
  • the storage device 110 has, as data items, an experiment number, an experiment name, an experiment manager, an experiment person, an observation start date and time, an observation end date and time, a microscope name, a magnification, a container product, a container type, and a determination. Includes result, status, app number, and app name.
  • the experiment number is information indicating an identification number uniquely assigned to each experiment. Information such as "Exp00001" is stored in the experiment number.
  • the experiment name is information indicating the name of the experiment. Information such as "BS-T00001" is stored in the experiment name.
  • the person responsible for the experiment is information indicating the name of the person responsible for the experiment.
  • Information such as "responsible person A" is stored in the experiment manager.
  • the person in charge of the experiment is information indicating the name of the person in charge of the experiment.
  • Information such as "charge E” is stored in the person in charge of the experiment.
  • the data items of the experiment number, the experiment name, the person in charge of the experiment, and the person in charge of the experiment may be simply the data items of the number, the name, the person in charge, and the person in charge, respectively.
  • it when it is used not only in the experimental step but also in the culture step, it may be a data item of a culture number, a culture name, a culture manager, and a culture manager.
  • the observation start date and time is information indicating the date and time when the observation was started. Information such as "2019/08/25 09:00:00" is stored in the observation start date and time.
  • the observation end date and time is information indicating the date and time when the observation was completed. Information such as "2019/08/26 15:15:25” is stored in the observation end date and time.
  • the microscope name is information indicating the name of the microscope used in the observation. Information such as "microscope H” is stored in the microscope name.
  • the magnification is information indicating the magnification of the microscope set at the time of observation. Information such as "8x” is stored in the magnification.
  • the container product is information indicating the manufacturer name of a container (for example, a well plate) having a plurality of accommodating portions (for example, wells, dishes, etc.) for accommodating an object. Information such as "product type K” is stored in the container product.
  • the container type is information indicating the type of a container (for example, a well plate) having a plurality of accommodating portions (for example, wells or the like) for accommodating an object.
  • Information such as "6WP (Well Plate)" is stored in the container type.
  • the determination result is information indicating the user's determination for the experiment. Information such as "OK” or “NG” is stored in the determination result.
  • the status is information indicating the progress of analysis of the observation result. Information such as "completed” or "60%” is stored in the status.
  • the application number is information indicating an identification number uniquely assigned to each application package used in the analysis of the observation result. Information such as "App.00001" is stored in the application number.
  • the application name is information indicating the name of the application package. Information such as "AppX” is stored in the application name.
  • As the application package for example, there are an image analysis application, an application for calculating the area of an object, an application for calculating the number of objects, and the like.
  • the storage device 110 stores observation images of a plurality of storage units in which the objects are housed in association with the experiment number, the code number, and the like.
  • the observation image corresponds to, for example, the above-mentioned general observation image or microscopic observation image. Therefore, the acquisition unit 132 can appropriately acquire the observation image from the storage device 110 as well.
  • the storage device 110 also stores group information described later.
  • the display control unit 133 generates a display image to be displayed on the display unit 122, and displays the generated display image on the display unit 122.
  • the display control unit 133 generates various display images to be displayed on the display unit 122 and displays the generated display images on the display unit 122.
  • the group is mainly executed by the registration unit 135, which will be described later. Generate a display image related to the registration of. Further, the display control unit 133 acquires information that requires a calculation from the calculation unit 134 regarding the generation of the display image. That is, the calculation unit 134 executes a calculation based on the observation result.
  • the display control unit 133 acquires raw data such as observation conditions and observation results from the storage device 110, and acquires information on calculation processing results based on the observation results from the calculation unit 134. Details of the processing by the display control unit 133 according to this embodiment will be described later.
  • the registration unit 135 registers two or more accommodating units as the same group based on the observation conditions or the classification criteria obtained from the observation results and the observation results.
  • the classification criterion is, for example, at least one of the observation conditions including the type and amount of the culture solution to be charged into the container.
  • the classification criterion is, for example, at least one of the observation conditions including the type, concentration and amount of serum contained in the culture medium to be put into the container.
  • the classification criterion is, for example, at least one of the observation conditions including the type, concentration, duration of exposure, and timing of exposure of the drug to be charged into the containment.
  • the classification criterion is, for example, at least one of the observation conditions including the type and number of objects to be put into the containment unit.
  • the classification criterion is at least one of the observation conditions including, for example, the microscope name, the magnification, the temperature setting, the humidity setting, the atmosphere supply setting, and the light output setting in the space where the container is arranged (for example, the culture room 2). is there.
  • the classification criterion is, for example, at least one of the observation results including the number of objects, the time course of the number, the doubling time of the number, the amount of movement, and the morphological change.
  • the classification criterion is, for example, at least one of the observation results including the occupied area of the object and the peripheral length of the object.
  • the classification standard for example, the brightness value after the analysis of the observation result (image) may be used.
  • the registration unit 135 registers two or more storage units having the same (similar or related) observation result as one of the above-mentioned classification criteria or a combination of the classification criteria as the same group. ..
  • the registration unit 135 stores the group information in the storage device 110.
  • the classification criteria include features or indicators used for group registration and group display described later.
  • the information used in the group registration may include an observation image of the accommodating portion, which is one of the observation results. That is, the registration unit 135 registers two or more accommodating units having the same (similar, related) observation images as the same group in an arbitrary process (period) of observation. Further, the information used in the group registration may include information that visually expresses the observation result. That is, the registration unit 135 registers two or more accommodating units having the same (similar, related) graphed information as the same group based on the graphed information of the observation results.
  • group registration can be carried out without using the observation results.
  • the registration unit 135 executes group registration at an arbitrary timing without using the observation result.
  • Arbitrary timing is, for example, before, during, and / or after observation.
  • group registration that does not use the observation results can be performed before observation (at the timing when the classification criteria for observation conditions are set). That is, the registration unit 135 may register two or more accommodating units as the same group based on the classification criteria regarding the observation conditions.
  • the classification criteria for the observation conditions may be determined in advance by the user.
  • FIGS. 7 to 17 are diagrams showing screen examples in group registration using the classification criteria according to the first embodiment. Further, in the description of FIGS. 7 to 17, the processes in the display control unit 133, the calculation unit 134, and the registration unit 135 will be described as appropriate.
  • the display control unit 133 displays a display image showing the observation result search screen on the display unit 122.
  • a search is executed with the text input unit KSa that performs a keyword search and the condition search units FSa, FSb, FSc, and FSd that perform a search by selecting from predetermined search conditions.
  • a search button SB is included.
  • the condition search unit FSa is, for example, a pull-down for selecting the name of the person in charge of the experiment.
  • the condition search unit FSb is, for example, a pull-down for selecting a status.
  • the condition search unit FSc is, for example, a pull-down that selects an observation start date and an observation end date.
  • the condition search unit FSd is, for example, a pull-down for selecting an application name.
  • the condition search unit FSa, FSb, FSc, and FSd may be realized by text input. The search conditions are not limited to the above.
  • the user operates the input unit 121, performs text input to the text input unit KSa, makes a selection using the conditional search units FSa, FSb, FSc, and FSd, and presses the search button SB.
  • the user operates the input unit 121 and presses the search button SB without selecting text input or conditional search.
  • the display control unit 133 acquires information corresponding to the search condition from the storage device 110, and displays a display image showing the search result SR on the display unit 122. That is, the display control unit 133 displays a list of observation results based on the search conditions or a display image showing a list of all observation results on the display unit 122.
  • search result SR for example, information on the data items of the experiment name, the experiment manager, the experiment person, the observation start date and time, the observation end date and time, the microscope name, the magnification, the container product, the container type, the application name, the judgment, and the status Is included.
  • the data items of the search result SR are not limited to the above. Further, the search result SR can be sorted according to the instruction of the data item or the like. The user performs an operation of selecting (designating) from the search result SR in order to confirm the observation result.
  • the display control unit 133 shows the observation result selected from the search result SR in the display image.
  • the display image of the observation result includes, for example, information ExpI regarding observation, information ScI regarding imaging conditions (observation conditions), plate map PmI including observation images, and information EvI regarding events in observation.
  • the plate map PmI includes an observation image OI, a group name GN, a time-series switching content TS, and a depth switching content DP.
  • the observation image OI for example, an observation image included in the selected observation result is displayed.
  • a registered group name is displayed in the group name GN.
  • time-series switching content TS for example, content for switching observation images in chronological order is displayed.
  • the depth switching content DP for example, content for switching the observation image corresponding to the depth of the accommodating portion is displayed.
  • the time-series switching content TS is represented by, for example, a plurality of rectangles separated at regular intervals.
  • the user can operate the input unit 121 to select the rectangle of the time-series switching content TS.
  • the display control unit 133 switches the display of the plate map PmI using the observation image corresponding to the corresponding period as the display image.
  • the display control unit 133 may display information regarding the observation date and time in the selected rectangle.
  • the switching of the observation image using the time-series switching content TS is not limited to the selection of the rectangle, and may be realized by the time-series switching content TSa that moves the selection position of the rectangle.
  • the depth switching content DP is represented by, for example, a rectangle divided by a certain depth (thickness, Z direction) with respect to the accommodating portion.
  • the user can operate the input unit 121 to select the rectangle of the depth switching content DP.
  • the display control unit 133 switches the display of the plate map PmI using the observation image corresponding to the depth of the corresponding accommodating unit as the display image.
  • the switching of the observation image using the depth switching content DP is not limited to the selection of the rectangle, and may be realized by the depth switching content DPa that moves the selection position of the rectangle.
  • the display control unit 133 shows the observation result of the group selected by the user with respect to the display image relating to the container having the plurality of storage units, and displays the display image on the display unit 122. Further, when the search condition is not used, the display control unit 133 indicates the observation result selected by the user from the list (all lists) with respect to the display image relating to the container having a plurality of storage units, and displays the display image. It is displayed on the display unit 122. Further, when the search condition is used, the display control unit 133 indicates the observation result selected by the user from the list based on the search condition with respect to the display image relating to the container having a plurality of storage units, and displays the display image. It is displayed on the display unit 122. Then, the display control unit 133 shows the observation image of the accommodating unit included in the observation result with respect to the display image, and displays the display image on the display unit 122.
  • editing includes editing group information by registering a new group.
  • the display control unit 133 receives a signal indicating that the edit button EB has been pressed.
  • the display control unit 133 displays an observation image OI and a display image including the group addition button AG for adding a new group.
  • the user operates the input unit 121, selects two or more observation image OIs corresponding to the accommodating units to be added to the new group, and presses the group addition button AG.
  • the display control unit 133 displays a display image in which the observation image OI is inverted with a predetermined color according to the selection of the observation image OI.
  • the display control unit 133 receives a signal indicating that the group addition button AG is pressed, and as shown in FIG. 12, the display control unit 133 inputs (or edits) the group name of the new group.
  • a display image including the registration button RB for executing group registration is displayed.
  • the display control unit 133 clearly indicates the observation image OI to be registered as a group by highlighting information such as a color, a frame, and a line.
  • a group color content GC that expresses observation results and the like in different colors for each group is arranged.
  • the user operates the input unit 121, selects the group color content GC, inputs the group name to the text input unit KSb, and presses the registration button RB.
  • the display control unit 133 receives a signal indicating that the registration button RB is pressed, and as shown in FIG. 14, the display control unit 133 displays a display image including a confirmation image CI showing an image confirming the execution of the group registration. indicate.
  • the user operates the input unit 121 and presses the registration button included in the confirmation image CI.
  • the group registration is not executed, the user operates the input unit 121 and presses the cancel button included in the confirmation image CI.
  • the display control unit 133 displays a display image including a completion image CS indicating that the group registration is completed.
  • the registration unit 135 stores the group information regarding the new group in the storage device 110.
  • the display control unit 133 displays a display image including the newly registered group name in the group name GN of the plate map PmI. Further, the user operates the input unit 121 to select a registered group from the group name GN in the plate map PmI. As a result, the display control unit 133 receives a signal indicating the selection of the group from the group name GN, and as shown in FIG. 17, the display control unit 133 indicates the analysis result AR indicating the analysis result corresponding to the selected group name. And a display image including the doubling time DT indicating the doubling time is displayed. The display control unit 133 receives and displays the calculation processing result from the calculation unit 134 when displaying the analysis result AR and the doubling time DT, for example.
  • the analysis result AR shown in FIG. 17 is an example in which the average number of objects in the containment unit belonging to the group B is visually expressed together with the error bar. That is, the display control unit 133 visually represents the observation result on the display image based on the calculation executed by the calculation unit 134, and displays the display image on the display unit 122.
  • the data on the vertical axis and the horizontal axis of the graph are shown as an example.
  • information on the time in the period from the observation start date and time to the observation end date and time may be displayed on the horizontal axis.
  • information on the item selected from the pull-down menu of the plate map PmI may be displayed on the vertical axis.
  • the vertical axis if the number of cells is selected in a pull-down, indicated by 0 to 1.0 of ( ⁇ 10 7) or the like.
  • the vertical axis is indicated by a ratio such as 0 to 100 (or 0 to 1.0) when the cell occupied area ratio is selected by pulling down. Therefore, the vertical and horizontal axes of the graph change according to the content to be displayed.
  • FIG. 18 is a flowchart showing an example of a processing flow in the information processing apparatus according to the first embodiment.
  • the acquisition unit 132 determines whether or not the search for which the search conditions have been set has been executed. For example, the acquisition unit 132 selects from the search conditions in which the search button SB is pressed by inputting text into the text input unit KSa, and the search conditions using the condition search units FSa, FSb, FSc, and FSd, and the search button SB is pressed. It is determined whether the search is performed or the search is performed only when the search button SB is pressed.
  • the acquisition unit 132 selects from the search conditions in which the search button SB is pressed by inputting text into the text input unit KSa, or the search conditions using the condition search units FSa, FSb, FSc, and FSd, and the search button SB.
  • the process in step S102 is executed.
  • the acquisition unit 132 executes the process in step S103.
  • step S102 the acquisition unit 132 acquires the observation result based on the search conditions. For example, the acquisition unit 132 acquires the observation result corresponding to the search condition from the storage device 110 via the communication unit 131.
  • step S103 the acquisition unit 132 acquires all the observation results. For example, the acquisition unit 132 acquires all the observation results from the storage device 110 via the communication unit 131.
  • step S104 the display control unit 133 displays a list of observation results. For example, the display control unit 133 shows a list of observation results acquired by the acquisition unit 132 on the display image, and displays the display image on the display unit 122.
  • the display control unit 133 accepts selection for the observation result.
  • the display control unit 133 accepts the user's selection of the observation result as a signal in the display image of the list of observation results.
  • the display control unit 133 displays the plate map.
  • the display control unit 133 shows the observation result selected by the user with respect to the display image of the container having the plurality of storage units, and displays the display image on the display unit 122.
  • the display control unit 133 may show a graph or the like for the observation result on the display image based on the execution result of the calculation by the calculation unit 134, and display the display image on the display unit 122.
  • the display control unit 133 may display the time-series switching content TS, the depth switching content DP, and the like on the display image, and display the display image on the display unit 122.
  • step S107 the display control unit 133 accepts selection for the observation image and group registration of the accommodating unit corresponding to the selected observation image. For example, the display control unit 133 receives a signal indicating that the edit button EB is pressed. Then, the display control unit 133 displays the observation image OI and the display image including the group addition button AG on the display unit 122. Subsequently, the display control unit 133 receives a signal indicating the selection of the observation image OI and the pressing of the group addition button AG. At this time, the display control unit 133 may display a display image in which the selected observation image OI is inverted with a predetermined color.
  • the display control unit 133 displays a display image including the text input unit KSb for inputting the group name and the registration button RB for executing the group registration on the display unit 122.
  • the observation image OI to be registered as a group may be clearly indicated by a frame or the like.
  • the display control unit 133 receives a signal indicating the selection of the group color content GC, the group name input to the text input unit KSb, and the pressing of the registration button RB.
  • the registration unit 135 executes group registration.
  • the registration unit 135 stores the group information in the storage device 110 based on the group color and the group name received by the display control unit 133 for the observation result to be the target of the new group.
  • Group registration is not limited to new group registration.
  • the registration unit 135 may store the group information to be added to the "group A" in the storage device 110 for the selected accommodating unit.
  • FIG. 19 is a flowchart showing an example of the flow of the display switching process of the observation image according to the first embodiment.
  • the display control unit 133 determines whether the plate map is displayed. At this time, the display control unit 133 executes the process in step S202 when the plate map is displayed (step S201: Yes). On the other hand, when the plate map is not displayed (step S201: No), the display control unit 133 ends the process because it is not necessary to switch the display of the observation image.
  • step S202 the display control unit 133 determines whether or not the time series switching operation has been accepted. For example, the display control unit 133 determines whether or not the rectangle of the time-series switching content TS is selected. The display control unit 133 may determine whether or not an operation of moving the selection position of the rectangle has been performed with respect to the time-series switching content TSa. Then, when the display control unit 133 receives the signal indicating the time series switching operation (step S202: Yes), the display control unit 133 displays the observation image corresponding to the time series in step S203. For example, the display control unit 133 switches the display of the plate map PmI using the observation image corresponding to the period corresponding to the rectangular position of the time-series switching content TS as the display image. On the other hand, when the display control unit 133 does not accept the time-series switching operation (step S202: No), the display control unit 133 executes the process in step S204.
  • step S204 the display control unit 133 determines whether or not the depth switching operation has been accepted. For example, the display control unit 133 determines whether or not the rectangle of the depth switching content DP is selected. The display control unit 133 may determine whether or not an operation of moving the selection position of the rectangle has been performed with respect to the depth switching content DPa. Then, when the display control unit 133 receives the signal indicating the depth switching operation (step S204: Yes), the display control unit 133 displays the observation image corresponding to the depth in step S205. For example, when the rectangle of the depth switching content DP is selected, the display control unit 133 switches the display of the plate map PmI using the observation image corresponding to the depth of the corresponding accommodating unit as the display image.
  • step S204 when the display control unit 133 does not accept the depth switching operation (step S204: No), the display control unit 133 executes the process in step S201. That is, when the display control unit 133 receives a signal indicating an operation for the time-series switching content TS or the depth switching content DP while the plate map is being displayed, the display control unit 133 switches to the corresponding observation image and displays it. Run.
  • FIG. 20 is a block diagram showing a functional configuration example of the information processing apparatus according to the second embodiment.
  • the information processing device 100a includes a communication unit 131, an acquisition unit 132, a display control unit 133a, a calculation unit 134, and a registration unit 135. Further, the input unit 121 and the display unit 122 are connected to the information processing device 100a.
  • the acquisition unit 132 acquires the observation results obtained by imaging a plurality of objects under predetermined observation conditions.
  • the process in the acquisition unit 132 is the same as that in the above embodiment.
  • the display control unit 133a colors the storage unit of the container belonging to the group corresponding to the above classification criteria selected by the user with respect to the display image of the container having the plurality of storage units in which the plurality of objects are housed. , Clarify by emphasized information such as frames and lines.
  • the display control unit 133a displays a display image including a plate map having a group name on the display unit 122. Then, the display control unit 133a receives a signal indicating the operation of selecting the group name by the user in the display image.
  • the display control unit 133a clearly indicates the storage unit of the container belonging to the group selected by the user with respect to the display image related to the container, and displays the specified display image on the display unit 122.
  • the display control unit 133a switches the indication of the storage unit of the container belonging to the corresponding group according to the selection of the classification standard by the user (eg, the signal indicating that the classification standard has been selected). For example, when the display control unit 133a detects a signal indicating that one first classification criterion has been selected from a plurality of classification criteria (also referred to as a plurality of groups) by the user, the display control unit 133a corresponds to the first classification criterion. Specify the storage area for containers belonging to the group.
  • the display control unit 133a subsequently detects a signal indicating that another second classification criterion different from the first classification criterion has been selected by the user, the group corresponding to the second classification criterion.
  • the display is switched so as to clearly indicate the storage part of the container belonging to.
  • FIG. 21 is a diagram showing an example of a plate map according to the second embodiment.
  • the case of 96-well-plate is taken as an example.
  • the display control unit 133a displays a display image in which the storage units of the containers belonging to the same group are clearly indicated in color on the plate map.
  • the expression is given an effect for convenience of explanation, but it is actually expressed by color coding.
  • the color of the accommodating portion may correspond to the group color described above.
  • the storage portion of the container which is the anti-drying buffer solution arranged on the outside, is shown in gray with respect to the displayed image.
  • the storage portion of the container which is represented by applying a grid-like effect, is shown in red with respect to the displayed image.
  • the storage portion of the container represented by the effect of the vertical line is shown in green with respect to the displayed image.
  • the storage portion of the container represented by the effect of the horizontal line is shown in blue with respect to the displayed image.
  • the display control unit 133a shows a graph showing the number of objects in each group on the display image as analysis information of the observation result. In the graph, the display control unit 133a also shows the solid line in red (corresponding to the accommodating part with the grid-like effect) and the broken line in green (corresponding to the accommodating part with the vertical line effect), and the alternate long and short dash line. Is shown in blue (corresponding to the housing part with the effect of the horizontal line).
  • the graph shown in FIG. 21 shows an average value of the number of objects in the accommodation section included in each group.
  • FIG. 22 is a diagram showing an example of a plate map according to the second embodiment.
  • the display control unit 133a displays a display image in which the storage unit of the container belonging to the same group is clearly indicated by a frame on the plate map.
  • the frame a corresponds to the group to which the grid-like effect shown in FIG. 21 is applied (shown in red).
  • the frame b corresponds to the group to which the effect of the vertical line shown in FIG. 21 is applied (shown in green).
  • the frame c corresponds to the group to which the effect of the horizontal line shown in FIG. 21 is applied (shown in blue).
  • the graph is displayed to represent that it corresponds to the frame a, the frame b, and the frame c.
  • specifying the same group by color and specifying it by a frame may coexist.
  • 23 to 26 are views showing an explicit example of the accommodating portion according to the second embodiment.
  • the display control unit 133a shows a combination of colors corresponding to the groups to which the storage units belong.
  • the portion to which the effect of the vertical line is applied is shown in green
  • the portion to which the effect of the horizontal line is applied is shown in blue.
  • the portion to which the grid-like effect is applied is shown in red
  • the portion to which the vertical line effect is applied is shown in green
  • the portion to which the horizontal line effect is applied is shown in blue.
  • the group corresponding to the negative control (group shown in blue) that the user wants to independently check is expressed more broadly than the other groups.
  • the display control unit 133a displays a display image clearly indicated by adding content indicating the group to which the display control unit 133a belongs in the vicinity of the storage unit.
  • the solid line is shown in red (corresponding to the accommodating part having a grid-like effect)
  • the broken line is shown in green (corresponding to the accommodating part having a vertical line effect)
  • the alternate long and short dash line is shown. It is shown in blue (corresponding to the housing part with the effect of the horizontal line). That is, the accommodating portions shown in FIGS. 25 and 26 belong to three groups.
  • the indications and graphs for the accommodations in the same group are switched and displayed when other classification criteria are selected.
  • FIG. 27 is a flowchart showing an example of a processing flow in the information processing apparatus according to the second embodiment. Note that FIG. 27 describes the flow of processing in the situation where the plate map is displayed.
  • the acquisition unit 132 acquires information regarding the observation results of each group from the storage device 110.
  • the display control unit 133a displays a display image including information on the observation result of each group acquired by the acquisition unit 132 on the display unit 122.
  • the user operates the input unit 121 to select an arbitrary group. The user may select a plurality of groups or only one group.
  • step S303 the acquisition unit 132 acquires the observation result including the observation image belonging to the group selected by the user from the storage device 110.
  • step S304 when a plurality of groups are selected, the display control unit 133a clearly indicates the accommodating units belonging to the same group. For example, the display control unit 133a generates a display image clearly indicating the accommodating unit belonging to the same group based on the observation image, and displays the generated display image on the display unit 122.
  • step S305 when one group is selected, the display control unit 133a displays the analysis result of the observation result regarding the group. For example, the display control unit 133a displays a display image including information obtained by graphing the observation result on the display unit 122 on the plate map based on the calculation result of the calculation unit 134.
  • FIG. 28 is a block diagram showing a functional configuration example of the information processing device according to the third embodiment.
  • the information processing device 100b includes a communication unit 131, an acquisition unit 132, a display control unit 133b, a calculation unit 134, and a registration unit 135. Further, the input unit 121 and the display unit 122 are connected to the information processing device 100b.
  • the display control unit 133b clearly indicates to the display image the storage unit of the container corresponding to the observation condition or observation result specified by the user.
  • the display control unit 133b clearly indicates the accommodating unit belonging to the same group, and then accepts the user to specify the observation condition or the observation result. That is, after confirming the observation results of a plurality of groups, the user further specifies the observation conditions or the observation results in order to confirm the accommodating portion corresponding to the observation conditions and arbitrary information of the observation results. For example, even if they are in the same group, the same drug is not always used, and even if the same drug is used, they are not necessarily registered in the same group.
  • the display control unit 133b displays a display image clearly indicating the accommodating unit corresponding to the designated observation condition or observation result on the display unit 122.
  • the explicit method at least one or more of color coding, a frame, addition of contents, and the like may be realized. After specifying the accommodating unit, if the group is not registered, the group may be registered according to the user operation.
  • FIG. 29 is a diagram showing an example of a plate map according to the third embodiment.
  • the display control unit 133b displays a display image in which the container storage unit corresponding to the type of serum and the concentration of serum specified by the user is clearly indicated by a color and a frame on the plate map.
  • the expression is given an effect for convenience of explanation, but it is actually expressed by color coding.
  • the storage portion of the container which is the anti-drying buffer solution arranged on the outside, is shown in gray with respect to the displayed image.
  • the storage portion of the container which is represented by applying a grid-like effect, is shown in red with respect to the displayed image.
  • the storage portion of the container represented by the effect of the vertical line is shown in green with respect to the displayed image.
  • the display control unit 133b shows a graph showing the number of objects under each observation condition or each object of the observation result on the display image as the analysis information of the observation result. In the graph, the display control unit 133b also shows the solid line in red (corresponding to the accommodating portion having the effect of a grid pattern) and the broken line in green (corresponding to the accommodating portion having the effect of the vertical line).
  • FIG. 30 is a flowchart showing an example of a processing flow in the information processing apparatus according to the third embodiment.
  • the acquisition unit 132 acquires information about the observation results of each group from the storage device 110.
  • the display control unit 133b displays a display image including information on the observation result of each group acquired by the acquisition unit 132 on the display unit 122.
  • the user operates the input unit 121 to select an arbitrary group. The user may select a plurality of groups or only one group.
  • step S403 the acquisition unit 132 acquires the observation result including the observation image belonging to the group selected by the user from the storage device 110.
  • the user operates the input unit 121 and specifies an observation condition or an observation result to be confirmed.
  • step S404 the display control unit 133b displays a display image clearly indicating the accommodating unit corresponding to the observation condition or observation result specified by the user.
  • step S405 the display control unit 133b displays the analysis result. For example, when the display control unit 133b receives a signal indicating the designation of the observation condition or the observation result by the user, the display image showing each observation condition or the accommodating unit corresponding to each observation result by color-coding, adding a frame, content, or the like. Is displayed on the display unit 122. In addition, the display control unit 133b also displays the analysis result regarding the corresponding accommodating unit on the display unit 122.
  • FIG. 31 is a block diagram showing a functional configuration example of the information processing apparatus according to the fourth embodiment.
  • the information processing apparatus 100c includes a communication unit 131, an acquisition unit 132, a display control unit 133c, a calculation unit 134, and a registration unit 135. Further, the input unit 121 and the display unit 122 are connected to the information processing device 100c.
  • the display control unit 133c clearly indicates the container storage unit in the display image according to the threshold condition specified by the user.
  • the display control unit 133c receives a signal indicating the designation of the threshold value condition by the user after clearly indicating the accommodating unit belonging to the same group. That is, after confirming the observation results of the plurality of groups, the user further specifies the threshold value condition in order to confirm the accommodating portion corresponding to the threshold value condition.
  • the process for confirming the accommodating portion corresponding to an arbitrary threshold condition is executed.
  • the display control unit 133c displays a display image clearly indicating the accommodating unit on the display unit 122 according to the designated threshold value condition.
  • the explicit method it may be realized by at least one or more such as color coding and addition of contents. After specifying the accommodating unit, if the group is not registered, the group may be registered according to the user operation.
  • the display control unit 133c may add content for adjusting the threshold condition to the display image.
  • the user can further change the threshold value condition while checking the displayed image after specifying the threshold value condition.
  • the display control unit 133c displays a display image clearly indicating the accommodating unit according to the changed threshold value condition on the display unit 122.
  • FIG. 32 is a diagram showing an example of a plate map according to the fourth embodiment.
  • the display control unit 133c displays a display image in which the accommodating unit is colored and the content is added according to the designated threshold value condition on the plate map.
  • the expression is given an effect for convenience of explanation, but it is actually expressed by color coding.
  • the storage portion of the container which is the anti-drying buffer solution arranged on the outside, is shown in gray with respect to the displayed image.
  • the storage portion of the container which is represented by applying a grid-like effect, is shown in red with respect to the displayed image.
  • the storage portion of the container represented by the effect of the vertical line is shown in green with respect to the displayed image.
  • a graph showing the number of objects in the accommodating portion corresponding to each of the measurement application A and the measurement application B is shown in the display image.
  • the display control unit 133c also shows the solid line in red (corresponding to the accommodating portion having the effect of a grid pattern) and the broken line in green (corresponding to the accommodating portion having the effect of the vertical line).
  • FIG. 33 is a diagram showing an example of a plate map according to the fourth embodiment.
  • the display control unit 133c displays a display image to which the content for adjusting the threshold condition is added. The user changes the threshold condition.
  • the display control unit 133c displays a display image clearly indicating the accommodating unit (eg, a plurality of accommodating units in the group that meets the threshold value condition) according to the changed threshold value condition.
  • FIG. 34 is a flowchart showing an example of a processing flow in the information processing apparatus according to the fourth embodiment.
  • the acquisition unit 132 acquires information regarding the observation results of each group from the storage device 110.
  • the display control unit 133c displays the display image including the information regarding the observation result of each group acquired by the acquisition unit 132 on the display unit 122.
  • the user operates the input unit 121 to select an arbitrary group. The user may select a plurality of groups or only one group.
  • step S503 the acquisition unit 132 acquires the observation result including the observation image belonging to the group selected by the user from the storage device 110.
  • the user operates the input unit 121 and specifies the threshold condition to be confirmed.
  • step S504 the display control unit 133c specifies the accommodating unit according to the threshold condition specified by the user.
  • the display control unit 133c displays the analysis result.
  • the display control unit 133c clearly indicates the accommodation unit according to the threshold condition specified by the user, and displays a display image showing the analysis result of the observation result of the specified accommodation unit.
  • step S506 the display control unit 133c determines whether the threshold condition has been changed. For example, when the display control unit 133c receives a signal indicating an operation of the content that changes the threshold value condition added to the display image (step S506: Yes), the display control unit 133c executes the process in step S504. On the other hand, when the display control unit 133c does not accept the operation of the content that changes the threshold value condition added to the display image (step S506: No), the display control unit 133c determines in step S507 whether the plate map is displayed. The display control unit 133c executes the process in step S506 when the plate map is displayed (step S507: Yes). On the other hand, the display control unit 133c ends the process when the plate map is not displayed (step S507: No).
  • FIG. 35 is a block diagram showing a functional configuration example of the information processing device according to the fifth embodiment.
  • the information processing apparatus 100d includes a communication unit 131, an acquisition unit 132, a display control unit 133d, a calculation unit 134, and a registration unit 135. Further, the input unit 121 and the display unit 122 are connected to the information processing device 100d.
  • the display control unit 133d clearly indicates the container storage unit corresponding to the combination of functions specified by the user on the display image.
  • the display control unit 133d clearly indicates the accommodating unit belonging to the same group in the shape of a line, a frame, or the like, or in color, and then accepts the user to specify the function. That is, after confirming the observation results of the plurality of groups, the user further specifies the function in order to confirm the accommodating portion according to the combination of the functions.
  • the process for confirming the accommodating portion corresponding to any combination of functions is executed.
  • the display control unit 133d displays a display image clearly indicating the accommodating unit on the display unit 122 according to the combination of the designated functions.
  • the explicit method it may be realized by at least one or more such as color coding and addition of contents. After specifying the accommodating unit, if the group is not registered, the group may be registered according to the user operation.
  • FIG. 36 is a diagram showing an example of a plate map according to the fifth embodiment.
  • the display control unit 133d displays a display image in which the accommodating unit is colored and the content is added according to the combination of the designated functions on the plate map.
  • the expression is given an effect for convenience of explanation, but it is actually expressed by color coding.
  • the storage portion of the container which is the anti-drying buffer solution arranged on the outside, is shown in gray with respect to the displayed image.
  • the storage portion of the container which is represented by applying a grid-like effect, is shown in blue with respect to the displayed image.
  • a graph showing the number of objects in the accommodating portion in which the measurement application A and the measurement application B are combined is shown in the display image.
  • the display control unit 133d also shows the graph in blue (corresponding to the storage unit having a grid-like effect).
  • FIG. 37 is a flowchart showing an example of a processing flow in the information processing apparatus according to the fifth embodiment. Note that FIG. 37 describes the flow of processing in the situation where the plate map is displayed.
  • the acquisition unit 132 acquires information regarding the observation results of each group from the storage device 110.
  • the display control unit 133d displays the display image including the information regarding the observation result of each group acquired by the acquisition unit 132 on the display unit 122.
  • the user operates the input unit 121 to select an arbitrary group. The user may select a plurality of groups or only one group.
  • step S603 the acquisition unit 132 acquires the observation result including the observation image belonging to the group selected by the user from the storage device 110.
  • the user operates the input unit 121 and specifies a combination of functions to be confirmed.
  • step S604 the display control unit 133d specifies the accommodating unit according to the combination of functions specified by the user.
  • step S605 the display control unit 133d displays the analysis result.
  • the display control unit 133d clearly indicates the accommodation unit according to the combination of functions specified by the user, and also displays a display image showing the analysis result of the observation result of the specified accommodation unit.
  • FIG. 38 is a diagram showing a configuration example of the information processing system according to the sixth embodiment.
  • the information processing system SYS includes a first terminal 30, a second terminal 40, a terminal device 80, an information processing device 100, and a culture system BS.
  • the first terminal 30, the second terminal 40, the terminal device 80, and the information processing device 100 are connected to each other so as to be able to communicate with each other via the network N.
  • the network N may be, for example, any of the Internet, a mobile communication network, and a local network, and may be a network in which a plurality of types of these networks are combined.
  • the terminal device 80 is composed of a plurality of gateway devices 80a.
  • the gateway device 80a is connected to the culture system BS by wire or wirelessly.
  • the information processing system SYS has a configuration in which a plurality of culture system BSs are connected to the information processing device 100 via the terminal device 80, but the present invention is not limited to this, and a single culture system BS is connected to the information processing device 100 via the terminal device 80. It may be configured to be connected to the information processing device 100. Further, a plurality of information processing devices 100 may be provided in the information processing system SYS, or a single information processing device 100 may be provided.
  • each information processing apparatus 100 may include all of the various functions described in the above embodiments, or may include them in a distributed manner. That is, the information processing device 100 according to the present embodiment can be realized by cloud computing.
  • the user side terminals (first terminal 30, second terminal 40, etc.) can be connected to the information processing device 100, and the observation results can be viewed and operated using a browser.
  • the information processing device 100 acquires an observation result obtained by imaging a plurality of objects housed in a container having a plurality of storage parts under predetermined observation conditions at the acquisition unit. Then, the information processing apparatus 100 registers two or more accommodating units as the same group in the registration unit based on the observation conditions or the classification criteria obtained from the observation results and the observation results.
  • the information processing device 100 acquires the observation results obtained by imaging a plurality of objects under predetermined observation conditions in the acquisition unit.
  • the information processing device 100 displays a display image of a container having a plurality of storage units in which a plurality of objects are housed, and user terminals (first terminal 30, second terminal 40, etc.). Specify the container of the container belonging to the group corresponding to the classification criteria selected by the user of. Subsequently, the information processing device 100 outputs the display image generated by the image generation unit to the user terminal via the network N in the output unit.
  • the information processing device 100 includes, for example, a computer system.
  • the information processing device 100 reads an information processing program stored in the memory and executes various processes according to the read information processing program.
  • a computer acquires an observation result obtained by imaging a plurality of objects housed in a container having a plurality of storage parts under predetermined observation conditions, and the observation condition or observation. Based on the classification criteria obtained from the results and the observation results, registering two or more storage units as the same group is performed. Further, the information processing program obtains, for example, an observation result obtained by imaging a plurality of objects under predetermined observation conditions on a computer, and a plurality of storage units in which the plurality of objects are housed.
  • the display image of the container to be held is made to clearly indicate the storage part of the container belonging to the group corresponding to the classification standard selected by the user.
  • These information processing programs may be recorded and provided on a computer-readable storage medium (for example, non-transitory storage medium, non-transitory tangible media).
  • a computer-readable storage medium for example, non-transitory storage medium, non-transitory tangible media.
  • the arithmetic unit 134 of the information processing apparatus 100 displays information visually expressing the analysis result as a graph, one data to be displayed on the graph (eg, next to the graph). Axis data, etc.) may be calculated from a plurality of observation images (eg, integration, average).

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

【課題】ウェルに関する情報を容易に視認すること、 【解決手段】情報処理装置は、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得する取得部と、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する容器の収容部を明示する表示制御部と、を備える。

Description

情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
 本発明は、情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システムに関する。
 特許文献1では、細胞のコロニーが撮像された画像に基づいて、コロニーの面積と、コロニーの面積を算出したコロニーに含まれる細胞の数とから、細胞の密度を算出する技術が開示されている。例えば、こうした技術を用いた解析結果は日々の解析によって膨大な量となるため、ユーザがそれらの解析結果を容易に視認できる技術が求められる。
国際公開第2015/193951号
 第1の態様に従えば、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得する取得部と、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する容器の収容部を明示する表示制御部と、を備える情報処理装置が提供される。
 第2の態様に従えば、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得することと、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する容器の収容部を明示することと、を含む情報処理方法が提供される。
 第3の態様に従えば、コンピュータに、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得することと、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する容器の収容部を明示することと、を実行させる情報処理プログラムが提供される。
 第4の態様に従えば、クラウドコンピューティングによりユーザ端末に表示画像を出力する情報処理システムであって、サーバを備え、サーバは、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得する取得部と、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザ端末のユーザによって選択された分類基準に対応するグループに属する容器の収容部を明示する画像生成部と、ネットワークを介して、画像生成部が生成した表示画像をユーザ端末に出力する出力部と、を備える情報処理システムが提供される。
 第5の態様に従えば、複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得する取得部と、観察条件又は観察結果から得られる分類基準と、観察結果とに基づいて、2以上の収容部を同一のグループとして登録する登録部と、を備える情報処理装置が提供される。
 第6の態様に従えば、複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得することと、観察条件又は観察結果から得られる分類基準と、観察結果とに基づいて、2以上の収容部を同一のグループとして登録することと、を含む情報処理方法が提供される。
 第7の態様に従えば、コンピュータに、複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得することと、観察条件又は観察結果から得られる分類基準と、観察結果とに基づいて、2以上の収容部を同一のグループとして登録することと、を実行させる情報処理プログラムが提供される。
 第8の態様に従えば、クラウドコンピューティングにより処理を実行する情報処理システムであって、サーバを備え、サーバは、複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得する取得部と、観察条件又は観察結果から得られる分類基準と、観察結果とに基づいて、2以上の収容部を同一のグループとして登録する登録部と、を備える情報処理システムが提供される。
第1実施形態に係る情報処理装置を含む解析システムの全体構成例を示す図。 第1実施形態に係る情報処理装置に接続される培養システムの構成例を示す図。 第1実施形態に係る情報処理装置に接続される培養システムの構成例を示すブロック図。 第1実施形態に係る情報処理装置に接続される培養システムの制御ユニット回りの接続関係の例を説明する図。 第1実施形態に係る情報処理装置の機能構成例を示すブロック図。 第1実施形態に係る記憶装置が記憶する情報例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係るグループ登録における画面例を示す図。 第1実施形態に係る情報処理装置における処理の流れの例を示すフローチャート。 第1実施形態に係る観察画像の表示切り替え処理の流れの例を示すフローチャート。 第2実施形態に係る情報処理装置の機能構成例を示すブロック図。 第2実施形態に係るプレートマップの例を示す図。 第2実施形態に係るプレートマップの例を示す図。 第2実施形態に係る収容部の明示例を示す図である。 第2実施形態に係る収容部の明示例を示す図である。 第2実施形態に係る収容部の明示例を示す図である。 第2実施形態に係る収容部の明示例を示す図である。 第2実施形態に係る情報処理装置における処理の流れの例を示すフローチャート。 第3実施形態に係る情報処理装置の機能構成例を示すブロック図。 第3実施形態に係るプレートマップの例を示す図。 第3実施形態に係る情報処理装置における処理の流れの例を示すフローチャート。 第4実施形態に係る情報処理装置の機能構成例を示すブロック図。 第4実施形態に係るプレートマップの例を示す図。 第4実施形態に係るプレートマップの例を示す図。 第4実施形態に係る情報処理装置における処理の流れの例を示すフローチャート。 第5実施形態に係る情報処理装置の機能構成例を示すブロック図。 第5実施形態に係るプレートマップの例を示す図。 第5実施形態に係る情報処理装置における処理の流れの例を示すフローチャート。 第6実施形態に係る情報処理システムの構成例を示す図。
 以下、実施形態について図面を参照して説明する。図面においては実施形態を説明するため、一部分を大きく又は強調して表すなど適宜縮尺を変更して表現しており、実際の製品とは大きさ、形状が異なる場合がある。
[第1実施形態]
 第1実施形態を説明する。図1は、第1実施形態に係る情報処理装置を含む解析システムの全体構成例を示す図である。図1に示すように、解析システム1000は、培養システムBSと、情報処理装置100と、記憶装置110とを含む。培養システムBSは、培養装置8と、観察装置5とを含む。解析システム1000は、対象物(例えば、細胞、試料、標本等)を培養するとともに、培養の過程を観察(撮像)し、観察結果(例、撮像画像)を解析するシステムである。
 培養システムBS、情報処理装置100、及び記憶装置110は、インターネット、LAN(Local Area Network)、及びWAN(Wide Area Network)等のネットワークを介して接続される。また、培養システムBS、情報処理装置100、及び記憶装置110は、インターネット、LAN、及びWAN等を組み合わせたネットワークを介して接続されてもよい。かかるネットワークは、有線通信によるネットワークに限らず、無線通信によるネットワークを含んでもよい。また、情報処理装置100が記憶装置110を備えた構成としてもよい。また、培養システムBSと記憶装置110とは、ネットワークを介して接続されてもよい。
 図2は、第1実施形態に係る情報処理装置に接続される培養システムの構成例を示す図である。図3は、第1実施形態に係る情報処理装置に接続される培養システムの構成例を示すブロック図である。図4は、第1実施形態に係る情報処理装置に接続される培養システムの制御ユニット回りの接続関係の例を説明する図である。
 培養システムBSは、大別して、筐体1の上部に設けられた培養室2と、複数の培養容器10を収容及び保持するストッカ3と、培養容器10内の対象物を観察(撮像)する観察装置5と、培養容器10を搬送する搬送ユニット(搬送装置)4とを有する。加えて、培養システムBSは、システムの作動を制御する制御ユニット(制御装置)6と、表示装置を備える操作盤7とを有する。なお、培養室2、ストッカ3、及び搬送ユニット4等は、培養装置8に相当する。
 培養室2は、顕微鏡観察における細胞等の観察対象物の培養環境を形成するチャンバである。培養室2には、温度調整装置21と、加湿器22と、ガス供給装置23と、循環ファン24と、環境センサ25とが設けられる。温度調整装置21は、環境センサ25と連携し、培養室2内の温度を所定の設定温度に調整する。加湿器22は、環境センサ25と連携し、培養室2内の湿度を所定の設定湿度に調整する。ガス供給装置23は、環境センサ25と連携し、COガス、Nガス、及びOガス等を供給する。循環ファン24は、環境センサ25と連携し、培養室2内の気体(空気)を循環させ、温度調整するファンである。環境センサ25は、培養室2の温度、湿度、二酸化炭素濃度、窒素濃度、及び酸素濃度等を検出する。
 ストッカ3は、前後、及び上下に仕切られた棚状にて形成される。各棚には、例えば、固有の番地が設定される。培養容器10は、培養する対象物の種別や目的等に応じて適宜選択される。培養容器10は、例えば、ウェルプレート、フラスコ、又はディッシュタイプ等の培養容器でよい。本実施形態では、ウェルプレートを利用する場合を例に挙げる。培養容器10には、対象物が液体培地(培養液)とともに注入され、保持される。培養容器10のそれぞれには、例えば、コード番号が付与される。培養容器10は、付与されたコード番号に応じて、ストッカ3の指定番地に対応付けて収容される。搬送ユニット4は、培養室2の内部に設けられた、上下移動可能なZステージ41と、前後移動可能なYステージ42と、左右移動可能なXステージ43とを有する。支持アーム45は、Xステージ43の先端側において、培養容器10を持ち上げ、支持する。
 観察装置5は、第1照明部51と、第2照明部52と、第3照明部53と、マクロ観察系54と、顕微観察系55と、制御ユニット6とを有する。第1照明部51は、試料台15の下側から対象物を照明する。第2照明部52は、顕微観察系55の光軸に沿って、試料台15の上方から対象物を照明する。第3照明部53は、顕微観察系55の光軸に沿って、試料台15の下方から対象物を照明する。マクロ観察系54は、対象物のマクロ観察を実施する。顕微観察系55は、対象物のミクロ観察を実施する。試料台15には、顕微観察系55の観察領域において、ガラス等の透明な窓部16が設けられる。
 マクロ観察系54は、観察光学系54aと、観察光学系54aにより結像された対象物の像を撮影するCCDカメラ等の撮像装置54cとを有する。マクロ観察系54は、第1照明部51によりバックライト照明された培養容器10の上方からの全体観察画像を取得する。顕微観察系55は、対物レンズ、中間変倍レンズ、及び蛍光フィルタ等を含む観察光学系55aと、観察光学系55aにより結像された対象物の像を撮影する冷却CCDカメラ等の撮像装置55cとを有する。対物レンズ、及び中間変倍レンズは、それぞれが複数設けられてもよい。対物レンズ、及び中間変倍レンズについては、レンズの組み合わせを変化させることで、任意の観察倍率に設定可能に構成される。顕微観察系55は、第2照明部52が照明した対象物の透過像と、第3照明部53が照明した対象物の反射像と、第3照明部53が照明した対象物の蛍光像とを取得する。つまり、顕微観察系55は、培養容器10内の対象物を顕微鏡観察した顕微観察画像を取得する。
 制御ユニット6は、マクロ観察系54の撮像装置54c、及び顕微観察系55の撮像装置55cから入力された信号を処理し、全体観察画像、及び顕微観察画像等の画像を生成する。また、制御ユニット6は、全体観察画像、及び顕微観察画像に画像解析を施し、タイムラプス画像を生成する。制御ユニット6は、生成した画像を情報処理装置100に出力し、記憶装置110に格納させる。
 制御ユニット6は、CPU(Central Processing Unit)(プロセッサ)61と、ROM(Read Only Memory)62と、RAM(Random Access Memory)63とを有する。CPU61は、制御ユニット6を統括し、制御ユニット6において各種の処理を実行する。ROM62は、培養システムBSに関する制御プログラム、及び制御データ等を記憶する。RAM63は、ハードディスクやDVD(Digital Versatile Disc)等の補助記憶装置を含み、観察条件や画像データ等を一時記憶する。制御ユニット6には、培養室2、搬送ユニット4、観察装置5、及び操作盤7等の各構成機器が接続される(図3参照)。
 RAM63は、例えば、観察プログラムに応じた培養室2の環境条件、及び観察スケジュール、観察装置5における観察種別、観察位置、及び観察倍率等を記憶する。また、RAM63は、観察装置5が撮影した画像データを記憶する記憶領域を含み、該画像データと、培養容器10のコード番号や撮影日時等を含むインデックスデータとを対応付けて記憶する。操作盤7は、操作パネル(操作部、入力部)71と、表示パネル72とを有する。操作パネル71は、キーボード、マウス、及びスイッチ等の入出力機器(操作部、入力部)を含む。ユーザは、操作パネル71を操作し、観察プログラムの設定、条件の選択、及び動作指令等を入力する。通信部65は、有線又は無線の通信規格に準拠して構成され、観察装置5、培養システムBS、又は制御ユニット6に接続される外部の機器(例、サーバ、ユーザのクライアント端末等)との間でデータを送受信する。RAM63が記憶する各種の情報は、情報処理装置100を介して、適宜、記憶装置110に格納され得る。
 図5は、第1実施形態に係る情報処理装置の機能構成例を示すブロック図である。図5に示すように、情報処理装置100は、通信部131と、取得部132と、表示制御部133と、演算部134と、登録部135とを有する。また、情報処理装置100には、入力部121と、表示部122とが接続される。
 入力部121は、情報処理装置100のユーザによる各種操作を受け付け、ユーザ操作に応じた制御信号を出力する。入力部121は、例えば、マウス、及びキーボード等で構成される。表示部122は、入力部121に対するユーザ操作に応じた各種情報(画像を含む情報)を表示出力する。表示部122は、例えば、ディスプレイ等で構成される。なお、入力部121と表示部122とは、一体的に構成されてもよい。すなわち、入力部121と表示部122とは、表示部122に表示される各種情報に対して直接的に入力操作を実施するタッチパネルを有する携帯型端末(例、タブレット端末)等で構成されてもよい。
 通信部131は、ネットワークを介して、培養システムBS、及び記憶装置110と通信し、各種情報を送受信する。通信部131は、例えば、ネットワークを介して、観察条件及び観察結果に関する情報を培養システムBSから受信する。また、通信部131は、例えば、ネットワークを介して、観察条件及び観察結果に関する情報を記憶装置110との間で送受信する。
 取得部132は、複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得する。例えば、取得部132は、ネットワーク又は通信部131を介して、記憶装置110が記憶する培養システムBSにおける種々の観察結果に関する情報を、記憶装置110から適宜取得する。また、取得部132は、観察結果に関する情報だけではなく、観察条件に関する情報についても記憶装置110から適宜取得することができる。
 図6は、第1実施形態に係る記憶装置が記憶する情報例を示す図である。図6に示すように、記憶装置110は、データ項目として、実験番号、実験名、実験責任者、実験担当者、観察開始日時、観察終了日時、顕微鏡名、倍率、容器製品、容器種別、判定結果、ステータス、アプリ番号、及びアプリ名を含む。実験番号は、実験毎に一意に割り当てられる識別番号を示す情報である。実験番号には、例えば、「Exp00001」等の情報が記憶される。実験名は、実験の名称を示す情報である。実験名には、例えば、「BS-T00001」等の情報が記憶される。実験責任者は、実験の責任者の氏名を示す情報である。実験責任者には、例えば、「責任者A」等の情報が記憶される。実験担当者は、実験の担当者の氏名を示す情報である。実験担当者には、例えば、「担当E」等の情報が記憶される。なお、実験番号、実験名、実験責任者、及び実験担当者のデータ項目は、単にそれぞれ、番号、名称、責任者、及び担当者のデータ項目としてもよい。例えば、実験工程に限らず、培養工程に利用される場合は、培養番号、培養名、培養責任者、及び培養担当者のデータ項目であってもよい。
 観察開始日時は、観察を開始した日時を示す情報である。観察開始日時には、例えば、「2019/08/25 09:00:00」等の情報が記憶される。観察終了日時は、観察を終了した日時を示す情報である。観察終了日時には、例えば、「2019/08/26 15:15:25」等の情報が記憶される。顕微鏡名は、観察で利用した顕微鏡の名称を示す情報である。顕微鏡名には、例えば、「顕微鏡H」等の情報が記憶される。倍率は、観察のときに設定した顕微鏡の倍率を示す情報である。倍率には、例えば、「8x」等の情報が記憶される。容器製品は、対象物を収容する収容部(例えば、ウェル、ディッシュ等)を複数有する容器(例えば、ウェルプレート等)のメーカ名を示す情報である。容器製品には、例えば、「製品タイプK」等の情報が記憶される。
 容器種別は、対象物を収容する収容部(例えば、ウェル等)を複数有する容器(例えば、ウェルプレート等)の種別を示す情報である。容器種別には、例えば、「6WP(Well Plate)」等の情報が記憶される。判定結果は、実験に対するユーザの判定を示す情報である。判定結果には、例えば、「OK」又は「NG」等の情報が記憶される。ステータスは、観察結果の解析の進捗を示す情報である。ステータスには、例えば、「完了」又は「60%」等の情報が記憶される。アプリ番号は、観察結果の解析で利用されるアプリケーションパッケージ毎に一意に割り当てられる識別番号を示す情報である。アプリ番号には、例えば、「App.00001」等の情報が記憶される。アプリ名は、アプリケーションパッケージの名称を示す情報である。アプリ名には、例えば、「AppX」等の情報が記憶される。なお、アプリケーションパッケージとしては、例えば、画像解析のアプリ、対象物の面積を算出するアプリ、対象物の数を算出するアプリ等が存在する。
 また、記憶装置110は、上記の情報のほかにも、実験番号及びコード番号等に対応付けて、対象物がそれぞれ収容される複数の収容部の観察画像を記憶する。観察画像は、例えば、上述した全体観察画像や顕微観察画像に相当する。従って、取得部132は、観察画像についても記憶装置110から適宜取得することができる。また、記憶装置110は、後述するグループ情報についても記憶する。
 図5の説明に戻る。表示制御部133は、表示部122に表示する表示画像を生成し、生成した表示画像を表示部122に表示する。表示制御部133は、表示部122に表示する種々の表示画像を生成し、生成した表示画像を表示部122に表示するが、本実施形態では主に、後述する登録部135で実行されるグループの登録に関わる表示画像を生成する。また、表示制御部133は、表示画像の生成に関して、演算を要する情報については演算部134から取得する。すなわち、演算部134は、観察結果に基づく演算を実行する。換言すると、表示制御部133は、観察条件及び観察結果等の生データについては記憶装置110から取得し、観察結果をもとにした演算処理結果の情報については演算部134から取得する。本実施形態に係る表示制御部133による処理の詳細については後述する。
 登録部135は、観察条件又は観察結果から得られる分類基準と、観察結果とに基づいて、2以上の収容部を同一のグループとして登録する。分類基準は、例えば、収容部に投入する培養液の種類及び量を含む観察条件の少なくとも1つである。分類基準は、例えば、収容部に投入する培養液に含まれる血清の種類、濃度及び量を含む観察条件の少なくとも1つである。分類基準は、例えば、収容部に投入する薬剤の種類、濃度、暴露期間、及び暴露タイミングを含む観察条件の少なくとも1つである。分類基準は、例えば、収容部に投入する対象物の種類及び数を含む観察条件の少なくとも1つである。分類基準は、例えば、顕微鏡名、倍率、容器が配置された空間(例えば、培養室2)における温度設定、湿度設定、雰囲気の供給設定、及び光の出力設定を含む観察条件の少なくとも1つである。分類基準は、例えば、対象物の数、数の経時変化、数の倍加時間、移動量、及び形態変化を含む観察結果の少なくとも1つである。分類基準は、例えば、対象物の専有面積、及び対象物の周囲長を含む観察結果の少なくとも1つである。分類基準は、例えば、観察結果(画像)の解析後の輝度値を用いてもよい。例えば、画像の解析後の輝度値を用いる場合は、コロニーの細胞密度(粗密)に対して輝度値の平均値を「5」等とし、平均値を基準値とした場合、基準値以上と基準値未満とで分類することができる。すなわち、登録部135は、上述した分類基準の1つ、又は分類基準の組み合わせと、観察結果とが、同一となった(類似する、関連する)2以上の収容部を同一のグループとして登録する。登録部135は、グループ情報について、記憶装置110に格納する。また、例えば、分類基準は、後述するグループ登録やグループ表示に用いる特徴又は指標を含む。
 グループ登録で利用される情報には、観察結果の1つである収容部を撮像した観察画像が含まれてもよい。すなわち、登録部135は、観察の任意の過程(期間)において、観察画像が同一となった(類似する、関連する)2以上の収容部を同一のグループとして登録する。また、グループ登録で利用される情報には、観察結果を視覚的に表現した情報が含まれてもよい。すなわち、登録部135は、観察結果をグラフ化した情報に基づいて、グラフ化した情報が同一となった(類似する、関連する)2以上の収容部を同一のグループとして登録する。
 なお、グループ登録に関しては、観察結果を利用せずに実施することができる。登録部135は、例えば、任意のタイミングで、観察結果を利用せずにグループ登録を実行する。任意のタイミングは、例えば、観察前、観察中、及び/又は観察後である。一例として、観察結果を利用しないグループ登録は、観察前に(観察条件に関する分類基準が設定されたタイミングで)行うことができる。すなわち、登録部135は、観察条件に関する分類基準に基づいて、2以上の収容部を同一のグループとして登録してもよい。観察条件に関する分類基準は、ユーザによって予め決定されればよい。
 図7から図17は、第1実施形態に係る分類基準を用いたグループ登録における画面例を示す図である。また、図7から図17の説明において、適宜、表示制御部133、演算部134、及び登録部135における処理を説明する。図7に示すように、表示制御部133は、観察結果の検索画面を示す表示画像を表示部122に表示する。観察結果の検索画面には、キーワード検索を行うテキスト入力部KSaと、予め決定された検索条件の中から選択することにより検索を行う条件検索部FSa、FSb、FSc、FSdと、検索を実行する検索ボタンSBとが含まれる。条件検索部FSaは、例えば、実験担当者の氏名を選択するプルダウンである。条件検索部FSbは、例えば、ステータスを選択するプルダウンである。条件検索部FScは、例えば、観察開始日と観察終了日とを選択するプルダウンである。条件検索部FSdは、例えば、アプリケーション名を選択するプルダウンである。なお、条件検索部FSa、FSb、FSc、FSdは、テキスト入力により実現してもよい。また、検索条件は、上記に限られない。
 ユーザは、入力部121を操作し、テキスト入力部KSaに対するテキスト入力、条件検索部FSa、FSb、FSc、FSdを用いた選択を行い、検索ボタンSBを押下する。又は、ユーザは、入力部121を操作し、テキスト入力や条件検索の選択を行わずに、検索ボタンSBを押下する。検索ボタンSBの押下に応じて、表示制御部133は、検索条件に該当する情報を記憶装置110から取得し、検索結果SRを示す表示画像を表示部122に表示する。つまり、表示制御部133は、検索条件に基づく観察結果の一覧、又は全ての観察結果の一覧を示す表示画像を表示部122に表示する。検索結果SRには、例えば、実験名、実験責任者、実験担当者、観察開始日時、観察終了日時、顕微鏡名、倍率、容器製品、容器種別、アプリ名、判定、及びステータスのデータ項目に対する情報が含まれる。なお、検索結果SRのデータ項目は、上記に限られない。また、検索結果SRは、データ項目の指示等によりソートすることができる。ユーザは、観察結果の確認のために、検索結果SRの中から選択する(指定する)操作を行う。
 次に、図8に示すように、表示制御部133は、検索結果SRの中から選択された観察結果を表示画像に示す。観察結果の表示画像には、例えば、観察に関する情報ExpI、撮影条件(観察条件)に関する情報ScI、観察画像を含むプレートマップPmI、及び観察におけるイベントに関する情報EvIが含まれる。これらのうち、プレートマップPmIには、観察画像OI、グループ名GN、時系列切替コンテンツTS、及び深さ切替コンテンツDPが含まれる。観察画像OIには、例えば、選択された観察結果に含まれる観察画像が表示される。グループ名GNには、例えば、登録済みのグループ名が表示される。時系列切替コンテンツTSには、例えば、観察画像を時系列で切り替えるコンテンツが表示される。深さ切替コンテンツDPには、例えば、収容部の深さに対応する観察画像を切り替えるコンテンツが表示される。
 時系列切替コンテンツTSは、例えば、一定期間ごとに区切られた複数の矩形で表現される。ユーザは、入力部121を操作し、時系列切替コンテンツTSの矩形を選択することができる。表示制御部133は、時系列切替コンテンツTSの矩形が選択されると、該当する期間に対応する観察画像を表示画像として、プレートマップPmIの表示を切り替える。このとき、表示制御部133は、選択された矩形における観察日時に関する情報を表示してもよい。なお、時系列切替コンテンツTSを用いた観察画像の切り替えは、矩形の選択に限られず、矩形の選択位置を移動させる時系列切替コンテンツTSaにより実現してもよい。
 深さ切替コンテンツDPは、例えば、収容部に対する一定の深さ(厚さ、Z方向)ごとに区切られた矩形で表現される。ユーザは、入力部121を操作し、深さ切替コンテンツDPの矩形を選択することができる。表示制御部133は、深さ切替コンテンツDPの矩形が選択されると、該当する収容部の深さに対応する観察画像を表示画像として、プレートマップPmIの表示を切り替える。なお、深さ切替コンテンツDPを用いた観察画像の切り替えは、矩形の選択に限られず、矩形の選択位置を移動させる深さ切替コンテンツDPaにより実現してもよい。
 つまり、表示制御部133は、ユーザによって選択されたグループの観察結果を、複数の収容部を有する容器に関する表示画像に対して示し、該表示画像を表示部122に表示する。また、表示制御部133は、検索条件が使用されない場合、一覧(全ての一覧)からユーザによって選択された観察結果を、複数の収容部を有する容器に関する表示画像に対して示し、該表示画像を表示部122に表示する。また、表示制御部133は、検索条件が使用される場合、検索条件に基づく一覧からユーザによって選択された観察結果を、複数の収容部を有する容器に関する表示画像に対して示し、該表示画像を表示部122に表示する。そして、表示制御部133は、観察結果に含まれる収容部の観察画像を、表示画像に対して示し、該表示画像を表示部122に表示する。
 次に、ユーザは、入力部121を操作し、グループ登録のために、編集ボタンEB(図9参照)を押下する。ここで、編集とは、新規のグループを登録することにより、グループ情報が編集されることを含む。図9に示すように、表示制御部133は、編集ボタンEBが押下されたことを示す信号を受け付ける。そして、図10に示すように、表示制御部133は、観察画像OI、及び新規のグループを追加するグループ追加ボタンAGを含む表示画像を表示する。続いて、図11に示すように、ユーザは、入力部121を操作し、新規のグループに追加したい収容部に対応する2以上の観察画像OIを選択し、グループ追加ボタンAGを押下する。ここで、表示制御部133は、観察画像OIの選択に応じて、観察画像OIを所定色で反転させた表示画像を表示する。これにより表示制御部133はグループ追加ボタンAGの押下を示す信号を受信し、図12に示すように、表示制御部133は、新規のグループのグループ名を入力(又は編集)するテキスト入力部KSbと、グループ登録を実行する登録ボタンRBとを含む表示画像を表示する。加えて、表示制御部133は、グループ登録の対象となる観察画像OIについて、色、枠や線等の強調情報により明示する。なお、テキスト入力部KSbの近傍には、観察結果等をグループごとに異なる色で表現するグループカラーコンテンツGCが配置される。
 次に、図13に示すように、ユーザは、入力部121を操作し、グループカラーコンテンツGCの選択と、テキスト入力部KSbへのグループ名の入力とを行い、登録ボタンRBを押下する。これにより表示制御部133は登録ボタンRBの押下を示す信号を受信し、図14に示すように、表示制御部133は、グループ登録の実行を確認する画像を示す確認画像CIを含む表示画像を表示する。ユーザは、分類基準を用いたグループ登録を実行させる場合に、入力部121を操作し、確認画像CIに含まれる登録ボタンを押下する。一方、ユーザは、グループ登録を実行させない場合に、入力部121を操作し、確認画像CIに含まれるキャンセルボタンを押下する。図15に示すように、表示制御部133は、登録ボタンが押下されると、グループ登録が完了したことを示す完了画像CSを含む表示画像を表示する。このとき、登録部135は、新規のグループに関するグループ情報を記憶装置110に格納する。
 その後、図16に示すように、表示制御部133は、プレートマップPmIのグループ名GNに、新規に登録されたグループ名を含む表示画像を表示する。また、ユーザは、入力部121を操作し、プレートマップPmIにおいてグループ名GNから登録済みのグループを選択する。これにより表示制御部133はグループ名GNからのグループの選択を示す信号を受信し、図17に示すように、表示制御部133は、選択されたグループ名に対応する解析結果を示す解析結果ARと、倍加時間を示す倍加時間DTとを含む表示画像を表示する。表示制御部133は、例えば、解析結果AR及び倍加時間DTの表示に際して、演算部134から演算処理結果を受け付けて表示する。図17に示す解析結果ARは、グループBに属する収容部の対象物の数の平均をエラーバーとともに視覚的に表現した例である。つまり、表示制御部133は、演算部134が実行した演算に基づいて、観察結果を視覚的に表現した情報を、表示画像に対して示し、該表示画像を表示部122に表示する。
 なお、本実施形態におけるグラフ(例、解析結果ARを表示する箇所)においては、該グラフの縦軸及び横軸のデータを一例として示している。例えば、横軸には、観察開始日時から観察終了日時までの期間における時間に関する情報が表示されてもよい。例えば、縦軸には、プレートマップPmIのプルダウンで選択された項目に対する情報が表示されてもよい。例えば、縦軸は、プルダウンで細胞の数が選択された場合、0から1.0の(×10)等で示される。例えば、縦軸は、プルダウンで細胞の専有面積率が選択された場合、0から100(又は、0から1.0)等の割合で示される。従って、グラフの縦軸及び横軸は、表示する内容に応じて変化する。
 図18は、第1実施形態に係る情報処理装置における処理の流れの例を示すフローチャートである。ステップS101において、取得部132は、検索条件を設定した検索が実行されたかを判定する。例えば、取得部132は、テキスト入力部KSaにテキストを入力して検索ボタンSBが押下される検索、条件検索部FSa、FSb、FSc、FSdを用いた検索条件から選択して検索ボタンSBが押下される検索、及び検索ボタンSBが押下されるのみの検索のうちいずれであるかを判定する。このとき、取得部132は、テキスト入力部KSaにテキストを入力して検索ボタンSBが押下される検索、又は条件検索部FSa、FSb、FSc、FSdを用いた検索条件から選択して検索ボタンSBが押下される検索である場合(ステップS101:Yes)、ステップS102における処理を実行する。一方、取得部132は、検索ボタンSBが押下されるのみの検索である場合(ステップS101:No)、ステップS103における処理を実行する。
 ステップS102において、取得部132は、検索条件に基づく観察結果を取得する。例えば、取得部132は、通信部131を介して、検索条件に該当する観察結果を記憶装置110から取得する。ステップS103において、取得部132は、全ての観察結果を取得する。例えば、取得部132は、通信部131を介して、全ての観察結果を記憶装置110から取得する。ステップS104において、表示制御部133は、観察結果の一覧を表示する。例えば、表示制御部133は、取得部132が取得した観察結果の一覧を表示画像に示し、該表示画像を表示部122に表示する。
 ステップS105において、表示制御部133は、観察結果に対する選択を受け付ける。例えば、表示制御部133は、観察結果の一覧の表示画像において、観察結果に対するユーザによる選択を信号として受け付ける。ステップS106において、表示制御部133は、プレートマップを表示する。例えば、表示制御部133は、ユーザによって選択された観察結果を、複数の収容部を有する容器に関する表示画像に対して示し、該表示画像を表示部122に表示する。このとき、表示制御部133は、演算部134による演算の実行結果に基づいて、観察結果に対するグラフ等を表示画像に示し、該表示画像を表示部122に表示してもよい。また、表示制御部133は、時系列切替コンテンツTSや深さ切替コンテンツDP等を表示画像に示し、該表示画像を表示部122に表示してもよい。
 ステップS107において、表示制御部133は、観察画像に対する選択と、選択された観察画像に対応する収容部のグループ登録とを受け付ける。例えば、表示制御部133は、編集ボタンEBの押下を示す信号を受け付ける。そして、表示制御部133は、観察画像OI、及びグループ追加ボタンAGを含む表示画像を表示部122に表示する。続いて、表示制御部133は、観察画像OIの選択と、グループ追加ボタンAGの押下とを示す信号を受け付ける。このとき、表示制御部133は、選択された観察画像OIを所定色で反転させた表示画像を表示してもよい。その後、表示制御部133は、グループ名を入力するテキスト入力部KSbと、グループ登録を実行する登録ボタンRBとを含む表示画像を表示部122に表示する。このとき、グループ登録の対象となる観察画像OIについて、枠等により明示してもよい。そして、表示制御部133は、グループカラーコンテンツGCの選択、テキスト入力部KSbに入力されたグループ名、及び登録ボタンRBの押下を示す信号を受け付ける。
 ステップS108において、登録部135は、グループ登録を実行する。例えば、登録部135は、新規のグループの対象となる観察結果に対して、表示制御部133が受け付けたグループカラー及びグループ名に基づいて、グループ情報を記憶装置110に格納する。なお、グループ登録は、新規のグループ登録に限らない。例えば、図11に示すように、ユーザは、観察画像OIの選択後に、既存のグループ(ここでは「グループA」)を選択し、登録ボタンRBを押下してもよい。これにより、登録部135は、選択された収容部について、「グループA」に追加するグループ情報を記憶装置110に格納してもよい。
 図19は、第1実施形態に係る観察画像の表示切り替え処理の流れの例を示すフローチャートである。ステップS201において、表示制御部133は、プレートマップが表示されているかを判定する。このとき、表示制御部133は、プレートマップが表示されている場合に(ステップS201:Yes)、ステップS202における処理を実行する。一方、表示制御部133は、プレートマップが表示されていない場合に(ステップS201:No)、観察画像の表示切り替えを実行しなくてよいため、処理を終了する。
 ステップS202において、表示制御部133は、時系列の切り替え操作を受け付けたかを判定する。例えば、表示制御部133は、時系列切替コンテンツTSの矩形が選択されたかを判定する。なお、表示制御部133は、時系列切替コンテンツTSaに対して矩形の選択位置を移動させる操作が行われたかを判定してもよい。そして、表示制御部133は、時系列の切り替え操作を示す信号を受け付けた場合に(ステップS202:Yes)、ステップS203において、時系列に対応する観察画像を表示する。例えば、表示制御部133は、時系列切替コンテンツTSの矩形の位置に該当する期間に対応する観察画像を表示画像として、プレートマップPmIの表示を切り替える。一方、表示制御部133は、時系列の切り替え操作を受け付けていない場合に(ステップS202:No)、ステップS204における処理を実行する。
 ステップS204において、表示制御部133は、深さの切り替え操作を受け付けたかを判定する。例えば、表示制御部133は、深さ切替コンテンツDPの矩形が選択されたかを判定する。なお、表示制御部133は、深さ切替コンテンツDPaに対して矩形の選択位置を移動させる操作が行われたかを判定してもよい。そして、表示制御部133は、深さの切り替え操作を示す信号を受け付けた場合に(ステップS204:Yes)、ステップS205において、深さに対応する観察画像を表示する。例えば、表示制御部133は、深さ切替コンテンツDPの矩形が選択されると、該当する収容部の深さに対応する観察画像を表示画像として、プレートマップPmIの表示を切り替える。一方、表示制御部133は、深さの切り替え操作を受け付けていない場合に(ステップS204:No)、ステップS201における処理を実行する。つまり、表示制御部133は、プレートマップが表示されている間、時系列切替コンテンツTS又は深さ切替コンテンツDPに対する操作を示す信号を受け付けた場合に、該当する観察画像に切り替えて表示する処理を実行する。
[第2実施形態]
 次に、第2実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
 図20は、第2実施形態に係る情報処理装置の機能構成例を示すブロック図である。図20に示すように、情報処理装置100aは、通信部131と、取得部132と、表示制御部133aと、演算部134と、登録部135とを有する。また、情報処理装置100aには、入力部121と、表示部122とが接続される。
 取得部132は、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得する。取得部132における処理は、上記実施形態と同様である。表示制御部133aは、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された上記の分類基準に対応するグループに属する容器の収容部を色、枠や線等の強調情報によって明示する。例えば、表示制御部133aは、グループ名を有するプレートマップを含む表示画像を表示部122に表示する。そして、表示制御部133aは、かかる表示画像においてグループ名に対するユーザによる選択の操作を示す信号を受け付ける。続いて、表示制御部133aは、容器に関する表示画像に対して、ユーザによって選択されたグループに属する容器の収容部を明示し、明示した表示画像を表示部122に表示する。表示制御部133aは、ユーザによる分類基準の選択(例、分類基準が選択されたことを示す信号)に応じて、対応するグループに属する容器の収容部の明示を切り替える。例えば、表示制御部133aは、ユーザによって複数の分類基準(複数のグループともいう)から1つの第1の分類基準が選択されたことを示す信号を検出した場合、第1の分類基準に対応するグループに属する容器の収容部を明示する。次に、表示制御部133aは、続いて第1の分類基準とは異なる別の第2の分類基準がユーザによって選択されたことを示す信号を検出した場合、第2の分類基準に対応するグループに属する容器の収容部を明示するように表示を切り替える。
 図21は、第2実施形態に係るプレートマップの例を示す図である。なお、図21では、96well-plateである場合を例に挙げる。図21に示すように、表示制御部133aは、プレートマップにおいて、同一のグループに属する容器の収容部を色で明示した表示画像を表示する。なお、図21に示す収容部では、説明の便宜上、効果を施した表現としているが、実際には色分けで表現する。収容部の色は、上述したグループカラーに対応させてもよい。例えば、容器のうち外側に配置された乾燥防止用緩衝液である収容部は、表示画像に対して灰色で示す。例えば、容器のうち格子状の効果を施して表現した収容部は、表示画像に対して赤色で示す。例えば、容器のうち縦線の効果を施して表現した収容部は、表示画像に対して緑色で示す。例えば、容器のうち横線の効果を施して表現した収容部は、表示画像に対して青色で示す。また、例えば、表示制御部133aは、観察結果の解析情報として、各グループにおける対象物の数を示すグラフを表示画像に示す。表示制御部133aは、グラフについても、実線は赤色(格子状の効果を施した収容部に対応)で示し、破線は緑色(縦線の効果を施した収容部に対応)で示し、一点鎖線は青色(横線の効果を施した収容部に対応)で示す。なお、図21に示すグラフは、各グループに含まれる収容部における対象物の数を平均した値を示す。
 図22は、第2実施形態に係るプレートマップの例を示す図である。図22に示すように、表示制御部133aは、プレートマップにおいて、同一のグループに属する容器の収容部を枠で明示した表示画像を表示する。枠aは、図21に示した格子状の効果を施した(赤色で示した)グループに相当する。枠bは、図21に示した縦線の効果を施した(緑色で示した)グループに相当する。枠cは、図21に示した横線の効果を施した(青色で示した)グループに相当する。また、グラフについては、枠a、枠b、及び枠cに対応することを表現した表示とする。なお、同一グループを色で明示することと、枠で明示することとは、共存させてもよい。
 収容部に対する明示については、上記のほかにも様々な形態がある。図23から図26は、第2実施形態に係る収容部の明示例を示す図である。図23及び図24に示すように、表示制御部133aは、分類基準に基づく複数のグループに属する収容部が存在する場合、属するグループに対応する色を組み合わせて示す。例えば、図23では、縦線の効果を施した部分を緑色で示し、横線の効果を施した部分を青色で示す。例えば、図24では、格子状の効果を施した部分を赤色で示し、縦線の効果を施した部分を緑色で示し、横線の効果を施した部分を青色で示す。なお、図24では、ユーザが主体的に確認したいネガティブコントロールに相当するグループ(青色で示すグループ)について、他のグループよりも広く表現している。
 図25及び図26に示すように、表示制御部133aは、収容部の近傍に、属するグループを示すコンテンツを付加して明示した表示画像を表示する。例えば、図25及び図26では、実線を赤色(格子状の効果を施した収容部に対応)で示し、破線を緑色(縦線の効果を施した収容部に対応)で示し、一点鎖線を青色(横線の効果を施した収容部に対応)で示す。すなわち、図25及び図26に示す収容部は、3つのグループに属することを表している。同一グループの収容部に対する明示やグラフは、上述したように、他の分類基準が選択された場合に切り替えて表示される。
 図27は、第2実施形態に係る情報処理装置における処理の流れの例を示すフローチャートである。なお、図27では、プレートマップが表示された状況における処理の流れを説明する。ステップS301において、取得部132は、各グループの観察結果に関する情報を記憶装置110から取得する。ステップS302において、表示制御部133aは、取得部132が取得した各グループの観察結果に関する情報を含む表示画像を表示部122に表示する。ここで、ユーザは、入力部121を操作して、任意のグループを選択する。ユーザは、複数のグループを選択してもよいし、1つのグループだけを選択してもよい。
 ステップS303において、取得部132は、ユーザによって選択されたグループに属する観察画像を含む観察結果を記憶装置110から取得する。ステップS304において、表示制御部133aは、複数のグループが選択された場合、同一グループに属する収容部を明示する。例えば、表示制御部133aは、観察画像をもとに、同一グループに属する収容部を明示した表示画像を生成し、生成した表示画像を表示部122に表示する。ステップS305において、表示制御部133aは、1つのグループが選択された場合、該グループに関する観察結果の解析結果を表示する。例えば、表示制御部133aは、演算部134の演算結果に基づいて、プレートマップにおいて、観察結果をグラフ化した情報を含む表示画像を表示部122に表示する。
[第3実施形態]
 次に、第3実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
 図28は、第3実施形態に係る情報処理装置の機能構成例を示すブロック図である。図28に示すように、情報処理装置100bは、通信部131と、取得部132と、表示制御部133bと、演算部134と、登録部135とを有する。また、情報処理装置100bには、入力部121と、表示部122とが接続される。
 表示制御部133bは、表示画像に対して、ユーザによって指定された観察条件又は観察結果に該当する容器の収容部を明示する。例えば、表示制御部133bは、同一グループに属する収容部を明示した後、ユーザによる観察条件又は観察結果の指定を受け付ける。すなわち、ユーザは、複数グループの観察結果を確認した後、さらに、観察条件や観察結果の任意の情報に該当する収容部を確認するために、観察条件又は観察結果を指定する。例えば、同一グループであっても、同一の薬剤が使用されているとは限らないし、同一の薬剤が使用されていても、同一グループに登録されているとは限らない。このため、本実施形態では、グループ(分類基準)に関わらずに、任意の条件に該当する収容部を確認する(絞り込む)ための処理を実行する。そして、表示制御部133bは、指定された観察条件又は観察結果に該当する収容部を明示した表示画像を表示部122に表示する。明示方法としては、色分け、枠、及びコンテンツの付加等の少なくとも1つ以上で実現してもよい。なお、収容部の明示後は、グループ登録されていなければ、ユーザ操作に応じてグループ登録を実施してもよい。
 図29は、第3実施形態に係るプレートマップの例を示す図である。なお、図29では、血清のある種類と血清のある濃度に該当する収容部を明示する場合を例に挙げる。図29に示すように、表示制御部133bは、プレートマップにおいて、ユーザによって指定された血清の種類と血清の濃度とに該当する容器の収容部を色、枠で明示した表示画像を表示する。なお、図29に示す収容部では、説明の便宜上、効果を施した表現としているが、実際には色分けで表現する。例えば、容器のうち外側に配置された乾燥防止用緩衝液である収容部は、表示画像に対して灰色で示す。例えば、容器のうち格子状の効果を施して表現した収容部は、表示画像に対して赤色で示す。例えば、容器のうち縦線の効果を施して表現した収容部は、表示画像に対して緑色で示す。また、例えば、表示制御部133bは、観察結果の解析情報として、各観察条件又は各観察結果の対象別における対象物の数を示すグラフを表示画像に示す。表示制御部133bは、グラフについても、実線は赤色(格子状の効果を施した収容部に対応)で示し、破線は緑色(縦線の効果を施した収容部に対応)で示す。
 図30は、第3実施形態に係る情報処理装置における処理の流れの例を示すフローチャートである。なお、図30では、プレートマップが表示された状況における処理の流れを説明する。ステップS401において、取得部132は、各グループの観察結果に関する情報を記憶装置110から取得する。ステップS402において、表示制御部133bは、取得部132が取得した各グループの観察結果に関する情報を含む表示画像を表示部122に表示する。ここで、ユーザは、入力部121を操作して、任意のグループを選択する。ユーザは、複数のグループを選択してもよいし、1つのグループだけを選択してもよい。
 ステップS403において、取得部132は、ユーザによって選択されたグループに属する観察画像を含む観察結果を記憶装置110から取得する。ここで、ユーザは、入力部121を操作し、確認する観察条件又は観察結果を指定する。ステップS404において、表示制御部133bは、ユーザによって指定された観察条件又は観察結果に該当する収容部を明示した表示画像を表示する。ステップS405において、表示制御部133bは、解析結果を表示する。例えば、表示制御部133bは、ユーザによる観察条件又は観察結果の指定を示す信号を受け付けると、各観察条件又は各観察結果に該当する収容部を色分け、枠、コンテンツの付加等により示した表示画像を表示部122に表示する。また、表示制御部133bは、該当する収容部に関する解析結果についてもあわせて表示部122に表示する。
[第4実施形態]
 次に、第4実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
 図31は、第4実施形態に係る情報処理装置の機能構成例を示すブロック図である。図31に示すように、情報処理装置100cは、通信部131と、取得部132と、表示制御部133cと、演算部134と、登録部135とを有する。また、情報処理装置100cには、入力部121と、表示部122とが接続される。
 表示制御部133cは、表示画像に対して、ユーザによって指定された閾値条件に応じて容器の収容部を明示する。例えば、表示制御部133cは、同一グループに属する収容部を明示した後、ユーザによる閾値条件の指定を示す信号を受け付ける。すなわち、ユーザは、複数グループの観察結果を確認した後、さらに、閾値条件に応じた収容部を確認するために、閾値条件を指定する。本実施形態では、グループ(分類基準)に関わらずに、任意の閾値条件に該当する収容部を確認するための処理を実行する。そして、表示制御部133cは、指定された閾値条件に応じて収容部を明示した表示画像を表示部122に表示する。明示方法としては、色分け、及びコンテンツの付加等の少なくとも1つ以上で実現してもよい。なお、収容部の明示後は、グループ登録されていなければ、ユーザ操作に応じてグループ登録を実施してもよい。
 また、表示制御部133cは、表示画像に対して、閾値条件を調整するコンテンツを付加してもよい。ユーザは、閾値条件の指定後に表示画像を確認しながら、さらに、閾値条件を変更することができる。表示制御部133cは、変更された閾値条件に応じた収容部を明示した表示画像を表示部122に表示する。
 図32は、第4実施形態に係るプレートマップの例を示す図である。なお、図32では、測定アプリA及び測定アプリBを適用する場合を例に挙げる。図32に示すように、表示制御部133cは、プレートマップにおいて、指定された閾値条件に応じて収容部を色、コンテンツの付加で明示した表示画像を表示する。なお、図32に示す収容部では、説明の便宜上、効果を施した表現としているが、実際には色分けで表現する。例えば、容器のうち外側に配置された乾燥防止用緩衝液である収容部は、表示画像に対して灰色で示す。例えば、容器のうち格子状の効果を施して表現した収容部は、表示画像に対して赤色で示す。例えば、容器のうち縦線の効果を施して表現した収容部は、表示画像に対して緑色で示す。また、観察結果の解析情報として、測定アプリA及び測定アプリBのそれぞれに対応する収容部の対象物の数を示すグラフを表示画像に示す。表示制御部133cは、グラフについても、実線は赤色(格子状の効果を施した収容部に対応)で示し、破線は緑色(縦線の効果を施した収容部に対応)で示す。
 図33は、第4実施形態に係るプレートマップの例を示す図である。図33に示すように、表示制御部133cは、閾値条件を調整するコンテンツを付加した表示画像を表示する。ユーザは、閾値条件を変更する。これにより、表示制御部133cは、変更された閾値条件に応じた収容部(例、閾値条件に合ったグループの複数の収容部)を明示した表示画像を表示する。
 図34は、第4実施形態に係る情報処理装置における処理の流れの例を示すフローチャートである。なお、図34では、プレートマップが表示された状況における処理の流れを説明する。ステップS501において、取得部132は、各グループの観察結果に関する情報を記憶装置110から取得する。ステップS502において、表示制御部133cは、取得部132が取得した各グループの観察結果に関する情報を含む表示画像を表示部122に表示する。ここで、ユーザは、入力部121を操作して、任意のグループを選択する。ユーザは、複数のグループを選択してもよいし、1つのグループだけを選択してもよい。
 ステップS503において、取得部132は、ユーザによって選択されたグループに属する観察画像を含む観察結果を記憶装置110から取得する。ここで、ユーザは、入力部121を操作し、確認する閾値条件を指定する。ステップS504において、表示制御部133cは、ユーザによって指定された閾値条件に応じて収容部を明示する。表示制御部133cは、解析結果を表示する。例えば、表示制御部133cは、ユーザによって指定された閾値条件に応じて収容部を明示し、また、明示した収容部の観察結果の解析結果を示す表示画像を表示する。
 ステップS506において、表示制御部133cは、閾値条件が変更されたかを判定する。例えば、表示制御部133cは、表示画像に付加された閾値条件を変更するコンテンツの操作を示す信号を受け付けた場合に(ステップS506:Yes)、ステップS504における処理を実行する。一方、表示制御部133cは、表示画像に付加された閾値条件を変更するコンテンツの操作を受け付けていない場合に(ステップS506:No)、ステップS507において、プレートマップが表示されているかを判定する。表示制御部133cは、プレートマップが表示されている場合に(ステップS507:Yes)、ステップS506における処理を実行する。一方、表示制御部133cは、プレートマップが表示されていない場合に(ステップS507:No)、処理を終了する。
[第5実施形態]
 次に、第5実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
 図35は、第5実施形態に係る情報処理装置の機能構成例を示すブロック図である。図35に示すように、情報処理装置100dは、通信部131と、取得部132と、表示制御部133dと、演算部134と、登録部135とを有する。また、情報処理装置100dには、入力部121と、表示部122とが接続される。
 表示制御部133dは、表示画像に対して、ユーザによって指定された関数の組み合わせに該当する容器の収容部を明示する。例えば、表示制御部133dは、同一グループに属する収容部を線や枠等の形、又は色等で明示した後、ユーザによる関数の指定を受け付ける。すなわち、ユーザは、複数グループの観察結果を確認した後、さらに、関数の組み合わせに応じた収容部を確認するために、関数を指定する。本実施形態では、グループ(分類基準)に関わらずに、任意の関数の組み合わせに該当する収容部を確認するための処理を実行する。そして、表示制御部133dは、指定された関数の組み合わせに応じて収容部を明示した表示画像を表示部122に表示する。明示方法としては、色分け、及びコンテンツの付加等の少なくとも1つ以上で実現してもよい。なお、収容部の明示後は、グループ登録されていなければ、ユーザ操作に応じてグループ登録を実施してもよい。
 図36は、第5実施形態に係るプレートマップの例を示す図である。なお、図36では、測定アプリA及び測定アプリBを適用する場合を例に挙げる。図36に示すように、表示制御部133dは、プレートマップにおいて、指定された関数の組み合わせに応じて収容部を色、コンテンツの付加で明示した表示画像を表示する。なお、図36に示す収容部では、説明の便宜上、効果を施した表現としているが、実際には色分けで表現する。例えば、容器のうち外側に配置された乾燥防止用緩衝液である収容部は、表示画像に対して灰色で示す。例えば、容器のうち格子状の効果を施して表現した収容部は、表示画像に対して青色で示す。また、観察結果の解析情報として、測定アプリAと測定アプリBとを組み合わせた収容部の対象物の数を示すグラフを表示画像に示す。表示制御部133dは、グラフについても、青色(格子状の効果を施した収容部に対応)で示す。
 図37は、第5実施形態に係る情報処理装置における処理の流れの例を示すフローチャートである。なお、図37では、プレートマップが表示された状況における処理の流れを説明する。ステップS601において、取得部132は、各グループの観察結果に関する情報を記憶装置110から取得する。ステップS602において、表示制御部133dは、取得部132が取得した各グループの観察結果に関する情報を含む表示画像を表示部122に表示する。ここで、ユーザは、入力部121を操作して、任意のグループを選択する。ユーザは、複数のグループを選択してもよいし、1つのグループだけを選択してもよい。
 ステップS603において、取得部132は、ユーザによって選択されたグループに属する観察画像を含む観察結果を記憶装置110から取得する。ここで、ユーザは、入力部121を操作し、確認する関数の組み合わせを指定する。ステップS604において、表示制御部133dは、ユーザによって指定された関数の組み合わせに応じて収容部を明示する。ステップS605において、表示制御部133dは、解析結果を表示する。例えば、表示制御部133dは、ユーザによって指定された関数の組み合わせに応じて収容部を明示し、また、明示した収容部の観察結果の解析結果を示す表示画像を表示する。
[第6実施形態]
 次に、第6実施形態を説明する。本実施形態において、上述した実施形態と同様の構成については、同一の符号を付し、その説明を省略又は簡略化する場合がある。
 図38は、第6実施形態に係る情報処理システムの構成例を示す図である。図38に示すように、情報処理システムSYSは、第1端末30と、第2端末40と、端末装置80と、情報処理装置100と、培養システムBSとを有する。第1端末30、第2端末40、端末装置80、及び情報処理装置100は、ネットワークNを介して、相互に通信可能に接続される。ネットワークNは、例えば、インターネット、移動体通信網、及びローカルネットワークのいずれであってもよく、これらの複数種類のネットワークが組み合わされたネットワークであってもよい。
 端末装置80は、複数のゲートウェイ装置80aで構成される。ゲートウェイ装置80aは、培養システムBSと有線又は無線により接続される。なお、情報処理システムSYSでは、複数の培養システムBSが端末装置80を介して情報処理装置100に接続される構成としているが、これに限られず、単数の培養システムBSが端末装置80を介して情報処理装置100に接続される構成でもよい。また、情報処理装置100は、情報処理システムSYSにおいて、複数設けられていてもよいし、単数であってもよい。また、各情報処理装置100には、上記実施形態で説明した各種の機能が、全て含まれてもよいし、分散的に含まれてもよい。つまり、本実施形態に係る情報処理装置100は、クラウドコンピューティングにより実現することができる。
 情報処理システムSYSでは、ユーザ側の端末(第1端末30、第2端末40等)から、情報処理装置100に接続し、ブラウザを用いて観察結果を閲覧や操作することができる。情報処理装置100は、サーバとして、取得部において、複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得する。そして、情報処理装置100は、登録部において、観察条件又は観察結果から得られる分類基準と、観察結果とに基づいて、2以上の収容部を同一のグループとして登録する。また、情報処理装置100は、サーバとして、取得部において、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得する。そして、情報処理装置100は、画像生成部として、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザ端末(第1端末30、第2端末40等)のユーザによって選択された分類基準に対応するグループに属する容器の収容部を明示する。続いて、情報処理装置100は、出力部において、ネットワークNを介して、画像生成部が生成した表示画像をユーザ端末に出力する。
 上述してきた実施形態において、情報処理装置100は、例えば、コンピュータシステムを含む。情報処理装置100は、メモリに記憶された情報処理プログラムを読み出し、読み出した情報処理プログラムに従って各種の処理を実行する。かかる情報処理プログラムは、例えば、コンピュータに、複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得することと、観察条件又は観察結果から得られる分類基準と、観察結果とに基づいて、2以上の収容部を同一のグループとして登録することと、を実行させる。また、情報処理プログラムは、例えば、コンピュータに、所定の観察条件で複数の対象物を撮像して得られた観察結果を取得することと、複数の対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する容器の収容部を明示することと、を実行させる。これらの情報処理プログラムは、コンピュータ読み取り可能な記憶媒体(例えば、非一時的な記憶媒体、non‐transitory tangible media)に記録されて提供されてもよい。また、上述した各実施形態において、情報処理装置100の演算部134は、解析結果を視覚的に表現した情報をグラフとして表示する場合に、該グラフに表示する1つのデータ(例、グラフの横軸のデータ等)を複数の観察画像から演算して(例、積算、平均)算出してもよい。
 なお、技術範囲は、上述した実施形態等で説明した態様に限定されるものではない。上述した実施形態等で説明した要件の1つ以上は、省略されることがある。また、上述した実施形態等で説明した要件は、適宜、組み合わせることができる。また、法令で許容される限りにおいて、上述した実施形態等で引用した全ての文献の開示を援用して本文の記載の一部とする。
100・・・情報処理装置、110・・・記憶装置、121・・・入力部、122・・・表示部、131・・・通信部、132・・・取得部、133・・・表示制御部、134・・・演算部、135・・・登録部

Claims (34)

  1.  所定の観察条件で複数の対象物を撮像して得られた観察結果を取得する取得部と、
     複数の前記対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する前記容器の前記収容部を明示する表示制御部と、
     を備える、情報処理装置。
  2.  前記表示制御部は、前記分類基準の選択に応じて、対応する前記グループに属する前記容器の前記収容部の明示を切り替える、請求項1に記載の情報処理装置。
  3.  前記分類基準は、前記収容部に投入する培養液の種類及び量を含む前記観察条件の少なくとも1つである、請求項1又は請求項2に記載の情報処理装置。
  4.  前記分類基準は、前記収容部に投入する培養液に含まれる血清の種類及び濃度を含む前記観察条件の少なくとも1つである、請求項1から請求項3のいずれか一項に記載の情報処理装置。
  5.  前記分類基準は、前記収容部に投入する薬剤の種類、濃度、暴露期間、及び暴露タイミングを含む前記観察条件の少なくとも1つである、請求項1から請求項4のいずれか一項に記載の情報処理装置。
  6.  前記分類基準は、前記収容部に投入する前記対象物の種類及び数を含む前記観察条件の少なくとも1つである、請求項1から請求項5のいずれか一項に記載の情報処理装置。
  7.  前記分類基準は、前記容器が配置された空間における温度設定、湿度設定、雰囲気の供給設定、及び光の出力設定を含む前記観察条件の少なくとも1つである、請求項1から請求項6のいずれか一項に記載の情報処理装置。
  8.  前記分類基準は、前記対象物の数、数の経時変化、数の倍加時間、移動量、及び形態変化を含む前記観察結果の少なくとも1つである、請求項1から請求項7のいずれか一項に記載の情報処理装置。
  9.  前記表示制御部は、同一の前記グループに属する前記容器の前記収容部を色で明示する、請求項1から請求項8のいずれか一項に記載の情報処理装置。
  10.  前記表示制御部は、同一の前記グループに属する前記容器の前記収容部を枠で明示する、請求項1から請求項9のいずれか一項に記載の情報処理装置。
  11.  前記表示制御部は、前記容器の前記収容部の近傍に、属する前記グループを示すコンテンツを付加して明示する、請求項1から請求項10のいずれか一項に記載の情報処理装置。
  12.  前記表示制御部は、前記分類基準に対応する前記グループに属する前記容器の前記収容部を明示した後、前記表示画像に対して、前記ユーザによって指定された前記観察条件又は前記観察結果に該当する前記容器の前記収容部を明示する、請求項1から請求項11のいずれか一項に記載の情報処理装置。
  13.  前記表示制御部は、同一の前記観察条件又は前記観察結果に該当する前記容器の前記収容部を色で明示する、請求項12に記載の情報処理装置。
  14.  前記表示制御部は、同一の前記観察条件又は前記観察結果に該当する前記容器の前記収容部を枠で明示する、請求項12又は請求項13に記載の情報処理装置。
  15.  前記表示制御部は、前記容器の前記収容部の近傍に、いずれの前記観察条件又は前記観察結果であるかを示すコンテンツを付加して明示する、請求項12から請求項14のいずれか一項に記載の情報処理装置。
  16.  前記表示制御部は、前記分類基準に対応する前記グループに属する前記容器の前記収容部を明示した後、前記表示画像に対して、前記ユーザによって指定された閾値条件に応じて前記容器の前記収容部を明示する、請求項1から請求項15のいずれか一項に記載の情報処理装置。
  17.  前記表示制御部は、前記表示画像に対して、前記閾値条件を調整するコンテンツを付加する、請求項16に記載の情報処理装置。
  18.  前記表示制御部は、前記分類基準に対応する前記グループに属する前記容器の前記収容部を明示した後、前記表示画像に対して、前記ユーザによって指定された関数の組み合わせに該当する前記容器の前記収容部を明示する、請求項1から請求項17のいずれか一項に記載の情報処理装置。
  19.  所定の観察条件で複数の対象物を撮像して得られた観察結果を取得することと、
     複数の前記対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する前記容器の前記収容部を明示することと、
     を含む、情報処理方法。
  20.  コンピュータに、
     所定の観察条件で複数の対象物を撮像して得られた観察結果を取得することと、
     複数の前記対象物がそれぞれ収容される複数の収容部を有する容器に関する表示画像に対して、ユーザによって選択された分類基準に対応するグループに属する前記容器の前記収容部を明示することと、
     を実行させる、情報処理プログラム。
  21.  クラウドコンピューティングによりユーザ端末に表示画像を出力する情報処理システムであって、
     サーバを備え、
     前記サーバは、
     所定の観察条件で複数の対象物を撮像して得られた観察結果を取得する取得部と、
     複数の前記対象物がそれぞれ収容される複数の収容部を有する容器に関する前記表示画像に対して、前記ユーザ端末のユーザによって選択された分類基準に対応するグループに属する前記容器の前記収容部を明示する画像生成部と、
     ネットワークを介して、前記画像生成部が生成した前記表示画像を前記ユーザ端末に出力する出力部と、
     を備える、情報処理システム。
  22.  複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得する取得部と、
     前記観察条件又は前記観察結果から得られる分類基準と、前記観察結果とに基づいて、2以上の前記収容部を同一のグループとして登録する登録部と、
     を備える、情報処理装置。
  23.  前記登録部は、前記分類基準と、前記観察結果に含まれる前記収容部の観察画像とに基づいて、2以上の前記収容部を同一の前記グループとして登録する、請求項22に記載の情報処理装置。
  24.  前記登録部は、前記分類基準、前記観察結果に含まれる前記収容部の観察画像、及び前記観察結果を視覚的に表現した情報に基づいて、2以上の前記収容部を同一の前記グループとして登録する、請求項22に記載の情報処理装置。
  25.  ユーザによって選択された前記グループの前記観察結果を、前記容器に関する表示画像に対して示す表示制御部、を備える、請求項22から請求項24のいずれか一項に記載の情報処理装置。
  26.  前記表示制御部は、一覧から前記ユーザによって選択された前記観察結果を、前記表示画像に対して示す、請求項25に記載の情報処理装置。
  27.  前記表示制御部は、検索条件に基づく一覧から前記ユーザによって選択された前記観察結果を、前記表示画像に対して示す、請求項25又は請求項26に記載の情報処理装置。
  28.  前記表示制御部は、前記観察結果に含まれる前記収容部の観察画像を、前記表示画像に対して示す、請求項25から請求項27のいずれか一項に記載の情報処理装置。
  29.  前記観察結果に基づく演算を実行する演算部、を備え、
     前記表示制御部は、前記演算部が実行した演算に基づいて、前記観察結果を視覚的に表現した情報を、前記表示画像に対して示す、請求項25から請求項28のいずれか一項に記載の情報処理装置。
  30.  前記表示制御部は、前記観察結果に含まれる前記収容部の観察画像を時系列で切り替える時系列切替コンテンツを、前記表示画像に対して示す、請求項25から請求項29のいずれか一項に記載の情報処理装置。
  31.  前記表示制御部は、前記観察結果に含まれる前記収容部の深さに対応する観察画像を切り替える深さ切替コンテンツを、前記表示画像に対して示す、請求項25から請求項30のいずれか一項に記載の情報処理装置。
  32.  複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得することと、
     前記観察条件又は前記観察結果から得られる分類基準と、前記観察結果とに基づいて、2以上の前記収容部を同一のグループとして登録することと、
     を含む、情報処理方法。
  33.  コンピュータに、
     複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得することと、
     前記観察条件又は前記観察結果から得られる分類基準と、前記観察結果とに基づいて、2以上の前記収容部を同一のグループとして登録することと、
     を実行させる、情報処理プログラム。
  34.  クラウドコンピューティングにより処理を実行する情報処理システムであって、
     サーバを備え、
     前記サーバは、
     複数の収容部を有する容器に収容された複数の対象物を所定の観察条件において撮像して得られた観察結果を取得する取得部と、
     前記観察条件又は前記観察結果から得られる分類基準と、前記観察結果とに基づいて、2以上の前記収容部を同一のグループとして登録する登録部と、
     を備える、情報処理システム。
PCT/JP2019/038163 2019-09-27 2019-09-27 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム WO2021059487A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN201980100801.6A CN114450707A (zh) 2019-09-27 2019-09-27 信息处理装置、信息处理方法、信息处理程序及信息处理系统
US17/763,831 US20240290004A1 (en) 2019-09-27 2019-09-27 Information processing device, information processing method, information processing program, and information processing system
JP2021548121A JP7380695B2 (ja) 2019-09-27 2019-09-27 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
EP19946930.5A EP4036839A4 (en) 2019-09-27 2019-09-27 INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING SYSTEM
PCT/JP2019/038163 WO2021059487A1 (ja) 2019-09-27 2019-09-27 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/038163 WO2021059487A1 (ja) 2019-09-27 2019-09-27 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Publications (1)

Publication Number Publication Date
WO2021059487A1 true WO2021059487A1 (ja) 2021-04-01

Family

ID=75166029

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/038163 WO2021059487A1 (ja) 2019-09-27 2019-09-27 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム

Country Status (5)

Country Link
US (1) US20240290004A1 (ja)
EP (1) EP4036839A4 (ja)
JP (1) JP7380695B2 (ja)
CN (1) CN114450707A (ja)
WO (1) WO2021059487A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137635A (ja) * 2011-12-28 2013-07-11 Dainippon Screen Mfg Co Ltd 画像表示装置および画像表示方法
WO2015193951A1 (ja) 2014-06-16 2015-12-23 株式会社ニコン 観察装置、観察方法、観察システム、そのプログラム、および細胞の製造方法
WO2018062125A1 (ja) * 2016-09-28 2018-04-05 オリンパス株式会社 細胞状態計測装置
WO2019159326A1 (ja) * 2018-02-16 2019-08-22 株式会社ニコン 算出装置、算出プログラム及び算出方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3413065B2 (ja) * 1997-07-03 2003-06-03 松下電器産業株式会社 番組情報処理装置
US7315985B1 (en) * 2002-12-31 2008-01-01 Emc Corporation Methods and apparatus for managing network resources using a network topology view
EP2202291B1 (en) * 2007-09-03 2019-02-27 Nikon Corporation Culture apparatus, culture information management method, and program
US9852377B1 (en) * 2016-11-10 2017-12-26 Dropbox, Inc. Providing intelligent storage location suggestions
WO2019059326A1 (ja) 2017-09-20 2019-03-28 旭化成株式会社 表面応力センサ、中空構造素子及びそれらの製造方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013137635A (ja) * 2011-12-28 2013-07-11 Dainippon Screen Mfg Co Ltd 画像表示装置および画像表示方法
WO2015193951A1 (ja) 2014-06-16 2015-12-23 株式会社ニコン 観察装置、観察方法、観察システム、そのプログラム、および細胞の製造方法
WO2018062125A1 (ja) * 2016-09-28 2018-04-05 オリンパス株式会社 細胞状態計測装置
WO2019159326A1 (ja) * 2018-02-16 2019-08-22 株式会社ニコン 算出装置、算出プログラム及び算出方法

Also Published As

Publication number Publication date
CN114450707A (zh) 2022-05-06
JPWO2021059487A1 (ja) 2021-04-01
EP4036839A1 (en) 2022-08-03
EP4036839A4 (en) 2023-06-14
US20240290004A1 (en) 2024-08-29
JP7380695B2 (ja) 2023-11-15

Similar Documents

Publication Publication Date Title
JP4970869B2 (ja) 観察装置および観察方法
EP2441827A1 (en) Technique for determining the state of a cell mass, image processing program and image processing device using said technique, and method for producing a cell mass
US20120134571A1 (en) Cell classification method, image processing program and image processing device using the method, and method for producing cell aggregation
WO2009119330A1 (ja) 細胞観察の画像解析方法、画像処理プログラム及び画像処理装置
EP2444479A1 (en) State determination method for cell cluster, image processing program and imaging processing device using said method, and method for producing cell cluster
WO2013099150A1 (en) Image data generating apparatus, image data display system, and image data generating method
JP5613495B2 (ja) 臨床検査情報システム、及びコンピュータプログラム
WO2009119329A1 (ja) 細胞観察画像の画像解析方法、画像処理プログラム及び画像処理装置
JP5516108B2 (ja) 観察装置、観察方法、及びプログラム
US10762327B2 (en) Image-processing device and cell observation system
JP6355082B2 (ja) 病理診断支援装置及び病理診断支援方法
CN112446287A (zh) 设置设备的控制处理过程的电子装置、方法和存储介质
JP2009229274A (ja) 細胞観察の画像解析方法、画像処理プログラム及び画像処理装置
WO2021059487A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
WO2021059489A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
JP6128204B2 (ja) 診断支援システム、診断支援方法及びそのプログラム
WO2021059488A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム、及び情報処理システム
JP2009229276A (ja) 細胞観察の画像解析方法、画像処理プログラム及び画像処理装置
JP6034073B2 (ja) 画像解析装置および画像解析方法
JP5917260B2 (ja) コロニー計数支援方法、及び、プログラム
JP6939170B2 (ja) 画像表示装置、プログラム及び制御方法
JPH06250097A (ja) 顕微鏡遠隔観察システム
JP2011010621A (ja) 培養物観察の画像処理方法、画像処理プログラム及び画像処理装置
US11348350B2 (en) Observation system and information management method
JP2012194517A (ja) 画像表示装置、観察装置、表示プログラム、画像表示方法、および観察制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19946930

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021548121

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2019946930

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2019946930

Country of ref document: EP

Effective date: 20220428